VOICE Homepage: http://de.os2voice.org

[Newsletter Inhalt]
[Vorherige Seite] [Nächste Seite]
[Artikelübersicht]

März 2001
editor@os2voice.org


Die AOpen PA256MX Grafikkarte und Scitech Display Doctor für OS/2

Von Gilbert Lefebvre ©März 2001, Übersetzung Thomas Klein


AOpen PA256 MX: http://aoaen.aopen.com/products/vga/pa256mx.htm
SciTech Display Doctor Professional für OS/2: http://www.scitechsoft.com/sdd_os2.html

Ich betrachte mich als einen der weniger bekannten OS/2-Anwender, obwohl ich schon seit Version 1.3 (und richtig intensiv seit Version 2) damit arbeite. Ich bin Mitbegründer der Montrealer OS/2 Benutzergruppe und zur Zeit auch deren Vorsitzender. Seitdem ich mich mit PCs beschäftige, habe ich mich auch schon immer für Hardware interessiert: Zu Beginn waren es die Festplatten, im Laufe der Zeit kam dann auch das Interesse für alles andere dazu. Heute verbringe ich täglich gut zwei Stunden damit, meine Hardwareneugier zu befriedigen.

Im September 1999 rüstete ich den Großteil meines System auf, beginnend mit einem neuen Towergehäuse mit 300 Watt-Netzteil, einem neuen Abit BP6 Doppel-Celeron Motherboard, neuem 19-Zoll ViewSonic G790 Monitor and einem neuen Lexmark Z51 Drucker. Meine Hauptfestplatte war weniger als ein Jahr alt, ebenso das CD-Rom-Laufwerk.

Es gab im Prinzip nur noch ein schwaches Glied in dieser Kette und das war meine Grafikkarte - eine Matrox Mystique 220. Ich beschloss zu warten, bis sich eine wirklich gute Gelegenheit bat. Die richtige Grafikkarte für OS/2 auszuwählen, ist keine leichte Aufgabe, da man natürlich auf gute Treiber angewiesen ist. Mit Ausnahme von Matrox gibt es nicht mehr viele Hersteller, die OS/2 unterstützen. Dazu kommt dann noch, daß die meisten Hardware-Sites fast ausschließlich auf Windows ausgerichtet sind. Die Frage, wie sich die Karte unter OS/2 verhält, wird dann mehr und mehr zu einem gutgehüteten Geheimnis.

Im frühen Herbst 2000 las ich gute Berichte über NVIDIA Geforce 2 MX Chipsätze und daß diese das beste Preis/Leistungsverhältnis bieten würden. Ich wandte mich an Kendall Bennett von Scitech mit der Frage, ob es vielleicht in Zukunft eine OS/2-Unterstützung für diesen Chipsatz geben würde und er antwortete, daß dies in der nächsten Betaversion des Scitech Display Doctor (SDD) der Fall sein würde. Dann erkundigte ich mich in comp.os.os2.video über die Zufriedenheit unter den OS/2-Anwendern in Bezug auf die Nvidia-Treiber, habe aber nie eine Antwort erhalten. Bei der Suche in Deja News nach Informationen zu NVIDIA fand ich auch nicht gerade berauschend viel. Ich fuhr also zunächst damit fort, Testberichte über Testberichte zu Karten der verschiedensten Hersteller mit diesem Chipsatz zu lesen, darunter Asus, MSI, Guillemot, Hercules, Creative Labs usw. Alle Tester stimmten darin überein, daß dies die beste Karte sei, die in der unteren Preisklasse zu haben wäre. Sagen wir's mal so: Ich glaube nicht, daß man eine zweite Hypothek auf sein Haus aufnehmen sollte, wenn man neue PC-Hardware kaufen will - ebenso glaube ich aber auch, daß die billigste Lösung auch nicht immer gerade die Beste ist. Am Ende entschied ich mich für eine AOpen PA256MX.

Es gibt drei verschiedene Geschmacksrichtungen bei dieser Karte: ohne TV-Ausgang, mit TV-Ausgang, mit TV- und Digitalausgang. Meine Wahl fiel auf das Modell ohne TV-Ausgang. Mehr Informationen zu dieser Karte gibt's unter: http://aoaen.aopen.com/products/vga/pa256mx.htm

Installation

Bevor ich irgend etwas anderes tat, habe ich die neueste Betaversion des SDD installiert, die übrigens sehr gut mit meinem Warp4 FP12 zusammenarbeitete, bei WSeB ohne FP2 aber die Installation verweigerte. Man kann den SDD-Treiber als einen universellen Treiber betrachten und das Wechseln der Grafikkarte erfordert nicht mehr das Umschalten auf VGA. Ich habe also einfach die Matrox PCI-Karte entfernt, die neue 32MB AGP-Karte eingesetzt und problemlos sowohl OS/2 Warp 4 als auch WSeB booten können. Die im Lieferumfang der Karte enthaltene CD bietet Treiber für jede mögliche Windowsvariante, für Linux und Informationen, wie man an BeOS-Treiber kommt.

Für meine NT4-Partition sah die Sache da schon etwas anders aus - um es kurz zu machen: Ich musste im BIOS des Rechners die Option aktivieren, der Grafikkarte einen IRQ zuzuweisen.

Unterschiede und Vergleiche

Die Größe meines Bildschirms beträgt 19 Zoll, daher ist meine bevorzugte Bildschirmauflösung 1280 x 1024 Pixel. Bei meiner Matrox hatte ich eine Farbtiefe von 65.566 Farben bei 65Hz Bildwiederholrate eingestellt. Ich habe einige Tests mit Hilfe von Trevor Hemsley's Benchmark bei dieser Einstellung durchgeführt, dasselbe bei der neuen Grafikkarte. Hier also der Inhalt der Ergebnisdatei zur Matrox, ermittelt mit Sysbench 0.9.4.d:

(Anm.d.Übers.: Da das verwendete Benchmarkprogramm auch international ausschließlich in englischer Version erhältlich ist, wurde auf eine Übersetzung der Testkategorien, -Kriterien und -Werte aus der Ergebnisdatei verzichtet um die vom Autor durchgeführten Messungen einfacher mit eigenen Ergebnissen vergleichen zu können.)

Rechnerdaten

Brand/
Board

Chipset

CPU

Coprocessor

Processors

RAM

OS/2 Version

CSD Level

Fix Level

Revision #

Priority

Maxwait

Timeslice

Protectonly

Motherboard - Abit BP6

Intel - 440BX

Intel Celeron 550 MHz with MMX stepping 6.6.5

Yes

1

112.00 MB

20.40

XRCM010_

XRCM010_

8.000

Dynamic

3

(32,32)

NO

Grafikkarte - Matrox Graphics, Inc. - MGA 1064SG "Mystique", 4MB, PCI

DIVE Tests

Vid Mem

Video Bus Bandwidth

DIVE fun

M->S DD 1.00:1

Dive-marks

4MB

73.409 Megabytes/second

251.519 fps normalised to 640x480x256

250.912 fps normalised to 640x480x256

93.801

Video tests - Resolution 1280x1024x16 bits/pixel

Vid Mem

BitBlt S->S Copy

BitBlt M->S Copy

Filled Rect.

Pattern Fill

Vert. Lines

Horiz. Lines

Diag. Lines

Text Render

PM-marks

4 MB

68.344 Million pixels/second

40.985 Million pixels/second

1698.032 Million pixels/second

847.573 Million pixels/second

3.752 Million pixels/second

399.917 Million pixels/second

7.549 Million pixels/second

84.683 M Million pixels/second

372.820



Hier sind die Ergebnisse für die Aopen MX256, unter Verwendung von Sysbench 0.9.4f

Rechnerdaten

Brand/Board

Chipset

CPU

Coprocessor

Processors

RAM

OS/2 Version

CSD Level

Fix Level

Revision #

Priority

Maxwait

Timeslice

Protectonly

Motherboard - Abit BP6

Intel Corporation - 82443BX 440BX PCI-Host Bridge (AGP Enabled)

Intel CeleronA 366@550MHz (stepping 665) with MMX

Yes

1

256.00 MB

20.40

XRCM010_

XRCM010_

8.000

Dynamic

3

(32,32)

NO

Grafikkarte - NVidia - GeForce 2 MX, 32MB, AGP

DIVE tests

Vid Mem

Video Bus Bandwidth

DIVE fun

M->S DD 1.00:1

Dive-marks

32MBs

229.213 Megabytes/second

760.380 fps normalised to 640x480x256

781.615 fps normalised to 640x480x256

290.716

Video tests - Resolution 1280x1024x16 bits/pixel

Vid Mem

BitBlt S->S Copy

BitBlt M->S Copy

Filled Rect.

Pattern Fill

Vert. Lines

Horiz. Lines

Diag. Lines

Text Render

PM-marks

32 MB

568.925 Million pixels/second

81.553 Million pixels/second

2286.626 Million pixels/second

2265.326 Million pixels/second

39.687 Million pixels/second

449.450 Million pixels/second

29.825 Million pixels/second

111.034 Million pixels/second

683.581



Kurz gesagt:

Matrox: 372.820 PM-Graphics-marks und 93.801 DIVE-marks

Aopen: 683.581 PM-Graphics-marks und 290.716 DIVE-marks


Und diesen Unterschied spürt man. Was die Qualität der Bildschirmausgabe angeht, so hat Matrox den Ruf, hier tonangebend zu sein, aber da habe ich keinen Unterschied im Vergleich zur neuen Karte bemerkt.

Die Karte von Matrox hat 4 MB Speicher und ist Jahrgang 1997 während die AOpen 32 MB Speicher hat und aus dem Jahr 2000 stammt. Die neue Karte hat weitergehende Fähigkeiten wie TrueColor Farbtiefe und höhere Bildwiederholraten. Ich stellte also um auf eine Farbtiefe von 32 bits/pixel, eine Bildwiederholfrequenz von 85 Hz und startete dann nochmals Sysbench 0.9.4.f:

Rechnerdaten

Brand/Board

Chipset

CPU

Coprocessor

Processors

RAM

OS/2 Version

CSD Level

Fix Level

Revision #

Priority

Maxwait

Timeslice

Protectonly

Motherboard - Abit BP6

Intel Corporation - 82443BX 440BX PCI-Host Bridge (AGP Enabled)

Intel CeleronA 366@550MHz (stepping 665) with MMX

Yes

1

256.00 MB

20.40

XRCM010_

XRCM010_

8.000

Dynamic

3

(32,32)

NO

Grafikkarte - NVidia - GeForce 2 MX, 32MB, AGP

DIVE tests

Vid Mem

Video Bus Bandwidth

DIVE fun

M->S DD 1.00:1

Dive-marks

32MBs

201.876 Megabytes/second

686.493 fps normalised to 640x480x256

683.273 fps normalised to 640x480x256

256.024

Video tests - Resolution 1280x1024x32 bits/pixel

Vid Mem

BitBlt S->S Copy

BitBlt M->S Copy

Filled Rect.

Pattern Fill

Vert. Lines

Horiz. Lines

Diag. Lines

Text Render

PM-marks

32 MB

238.114 Million pixels/second

50.590 Million pixels/second

967.740 Million pixels/second

963.436 Million pixels/second

20.060 Million pixels/second

448.753 Million pixels/second

25.123 Million pixels/second

112.565 Million pixels/second

328.605


Die Geschwindigkeitseinbußen bei einer Tiefe von 32 Mio. Farben sind ziemlich hoch. Ist diese Einstellung das denn wirklich wert? Betrachtet man Desktop und Browser dann würde ich sagen: Nein. Für die eher seltenen Momente der Photobearbeitung kann man ja immer noch die Einstellung entsprechend ändern. Ich denke aber, daß der durchschnittliche Heimanwender diese Einstellung bestimmt nicht grundsätzlich benötigt, besonders wenn man die Geschwindigkeitseinbußen betrachtet. Die Geschwindigkeit ist im Prinzip natürlich immer noch sehr gut, aber eben nicht mehr so beeindruckend.

Wie sähe das Ganze jetzt auf einem kleineren Monitor wie z.B. einem 15-Zöller bei 800 x 600 Pixeln aus? Ich hatte gerade einen neuen Rechner fertiggestellt mit einem AMD Duron 750 MHz und TrueColor-Einstellung auf Basis von Warp4 und FP14:

Grafikkarte - NVidia - GeForce 2 MX, 32MB, AGP

DIVE tests

Vid Mem

Video Bus Bandwidth

DIVE fun

M->S DD 1.00:1

Dive-marks

32MBs

63.128 Megabytes/second

215.546 fps normalised to 640x480x256

215.498 fps normalised to 640x480x256

80.548

Video tests - Resolution 800x600x32 bits/pixel

Vid Mem

BitBlt S->S Copy

BitBlt M->S Copy

Filled Rect.

Pattern Fill

Vert. Lines

Horiz. Lines

Diag. Lines

Text Render

PM-marks

32 MB

285.698 Million pixels/second

16.445 Million pixels/second

1144.086 Million pixels/second

1140.916 Million pixels/second

35.041 Million pixels/second

335.446 Million pixels/second

9.732 Million pixels/second

146.559 Million pixels/second

365.189


Für die niedrigen DIVE-Ergebnisse habe ich keine Erklärung.

Mein WseB nutzt zwar die vollen Kapazitäten beider Prozessoren, bringt dafür aber recht enttäuschende Benchmarkwerte, die etwas unter denen von Warp4 liegen. Hier der WSeB SMP Benchmarktest:

Bei 16 bits per pixel: 643.813 PM-Graphics-marks 206.522 DIVE-marks.

Bei 32 bits per pixel: 290.459 PM-Graphics-marks 187.477 DIVE-marks.



Ich habe bei SDD nachgefragt, was es damit auf sich haben könnte und man sagte mir, daß dies ein bekanntes Problem wäre, welches unter Umständen bald behoben würde.

Jetzt kann man sich natürlich fragen, ob eine schnellere CPU irgendwelche Auswirkungen auf diese Benchmarks hätte. Also habe ich folgendes auf dem AMD Duron 750 laufen lassen...

Grafikkarte - NVidia - GeForce 2 MX, 32MB, AGP

DIVE tests

Vid Mem

Video Bus Bandwidth

DIVE fun

M->S DD 1.00:1

Dive-marks

32MBs

63.212 Megabytes/second

215.629 fps normalised to 640x480x256

215.655 fps normalised to 640x480x256

80.611

Video tests - Resolution800x600x16 bits/pixel

Vid Mem

BitBlt S->S Copy

BitBlt M->S Copy

Filled Rect.

Pattern Fill

Vert. Lines

Horiz. Lines

Diag. Lines

Text Render

PM-marks

32 MB

595.747 Million pixels/second

32.477 Million pixels/second

2405.134 Million pixels/second

2394.510 Million pixels/second

54.230 Million pixels/second

372.011 Million pixels/second

11.315 Million pixels/second

147.687 Million pixels/second

705.671


Dann habe ich den 750er auf 918 MHz übertaktet (9*102 Mhz) und den Test bei gleicher Auflösung und Farbtiefe wiederholt:

Grafikkarte - NVidia - GeForce 2 MX, 32MB, AGP

DIVE tests

Vid Mem

Video Bus Bandwidth

DIVE fun

M->S DD 1.00:1

Dive-marks

32MB

64.430 Megabytes/second

219.841 fps normalised to 640x480x256

219.922 fps normalised to 640x480x256

82.194

Video tests - Resolution800x600x16 bits/pixel

Vid Mem

BitBlt S->S Copy

BitBlt M->S Copy

Filled Rect.

Pattern Fill

Vert. Lines

Horiz. Lines

Diag. Lines

Text Render

PM-marks

32 MB

595.747 Million pixels/second

33.131 Million pixels/second

2404.909 Million pixels/second

2394.510 Million pixels/second

54.230 Million pixels/second

443.195 Million pixels/second

11.650 Million pixels/second

160.607 Million pixels/second

714.775


Unter Berücksichtigung der Geschwindigkeitssteigerung ist das kein großer Unterschied.

Fazit

Die AOpen ist eine schnelle Karte zu einem vernünftigen Preis (ca. 120 US-Dollar). Sie bietet den Vorteil, Treiber für fast jedes Betriebssystem zu bieten, das zu nutzen man erwägen könnte. Wer gerne unter Windows spielt, wird auch die gute 3D-Leistung der Karte zu schätzen wissen. Die erst kürzlich erschienene neue Version des IBM'schen SDD unterstützt den Chipsatz dieser Karte noch nicht, so daß man den Treiber von Scitech benötigt. Soweit ich weiß, ist dieser nur über die Webseite von Scitech erhältlich http://www.scitechsoft.com/Merchant/merchant.mv?Screen=CTGY&Store_Code=scitech&Category_Code=Consumer und kostet ca. 40 US-$. (Anm. d. Übers.: Lizenzen für SDD sind günstig über Sammelbestellungen bei Joshua-Com zu beziehen.) Ich bin weder ein Angestellter einer der hier genannten Firmen, noch besitze ich Aktien von Ihnen. Was ich hier berichte dient lediglich dazu, potentiellen Interessenten einen Eindruck davon zu geben, was sie erwarten würde, sollten Sie meinem Beispiel folgen.


Artikelübersicht
editor@os2voice.org
[Vorherige Seite] [Newsletter Inhalt] [Nächste Seite]
VOICE Homepage: http://de.os2voice.org