Schlechte Signalqualität am VGA-Ausgang

Hallo zusammen!

Das Problem wegen dem ich hier Hilfe suche betrifft eine Spielegrafikkarte der Marke PowerColor. Es handelt sich dabei um eine x1950 Extreme. Sprich eine etwas schneller getaktete PCIe mit ATI 1950pro Chip. Die Karte hat nur 2 DVI-Ausgänge, von denen ich einen nutze um mittels VGA-Adapter das Signal auf meinen eigentlich sehr brillianten 19" Röhrenmonitor von ADI weiter zu geben.

Das Problem:
Beim Anschluß an meinen 19" Röhrenmonitor werden Buchstaben auf weißem Grund nur unscharf abgebildet. Zusätzlich befindet sich knapp rechts neben den Buchstaben ein Schatten dieser. Das Ganze sieht nicht nur schwammig aus, sondern stört auch ungemein beim Lesen längerer Texte und wirkt sehr ermüdend auf die Augen bis sich sogar leichte Verspannungen und Kopfschmerzen einstellen.

Ich habe schon andere ältere Grafikkarten ausgetestet, mit denen das Bild an meinem eigentlichen 19" Monitor immer sehr gut war und auch andere Vergleichsmonitore ausgetset, welche aber allesamt ebenfalls sehr gut waren mit denen das schlechte Bild an der PowerColor wieder zu reproduzieren war, doch mit den anderen Grafikkarten war das Bild wieder einwandfrei.

Nun meine Frage an Kenner, Bastler, Fachleute:
Wo liegt das Problem in der Grafikkarte? Liegt es an den aufgelöteten DVI-Adaptern? Liegt es am RAMDAC?
Kann man die Signalqualität irgendwie verbessern? Zb. Abschirmung in der Karte (Das Monitorkabel ist ja wie die Tests ergaben nicht die Fehlerquelle), anderen Sockel auflöten, oder wie auch immer…

Sind die Karten von PowerColor allgemein einfach nur Schrott? Oder habe ich hier zufällig Ausschuß gekauft? Oder sind DVI-Ausgänge allgemein minderwertig und nicht für das VAG-Signal der Röhrenmonitore zu gebrauchen?

Evtl. würde ich die Karte auch wieder zurückgeben, aber leider habe ich keinen Kaufbeleg, da die Karte gebraucht aus dritter Hand kam.

Ich freue mich auf Euere Tips. Danke!

der jo

Moien

Nun meine Frage an Kenner, Bastler, Fachleute:
Wo liegt das Problem in der Grafikkarte?

Das liegt an der Geldgeilheit der Leute. Niemand interessiert sich für die VGA-Qualität. Kaum ein Test zeigt wirklich auf was am VGA-Ausgang passiert (löbliche Ausnahme: ct). Da könnten Signale in Pacmac-Qualität rauskommen und keiner würde was sagen. Ergo wird an dem Punkt gespart.

Liegt es am RAMDAC?

Treffer. Es sind absolute Pfennigartikel. Aber auch daran wird gespart. Und die Teile sind nicht austauschbar. Von den RAMDACs geht es übers PCB weiter zu den Anschlüssen. Diese Leitungen sollen eigentlich kurz und abgeschirmt sein. Stattdesen sind sie lang und direkt neben der Stromversorgung.

Kann man die Signalqualität irgendwie verbessern?

Pixelrate runternehmen. Also weniger Auflösung und/oder weniger Wiederholrate. Manche Röhren liefern bei 75Hz noch gute, einigermassen erträgliche Bilder. (auch wenn ich eigentlich 120Hz vorziehe).

Und die Karte deutlich langsamer takten. Also nicht per übertakten 2fps mehr rausholen sondern durch untertakten die Störungen reduzieren.

Sind die Karten von PowerColor allgemein einfach nur Schrott?

Schrott ist das falsche Wort. Die Dinger sind billig.

Oder habe ich hier zufällig Ausschuß gekauft?

Nee, das deckt sich mit einem Erfahrungen. Highend Gamer Karten liefern auf VGA recht schlechte Signale und OC-Karten brechen dann ganz ein.

Oder sind
DVI-Ausgänge allgemein minderwertig und nicht für das
VAG-Signal der Röhrenmonitore zu gebrauchen?

Nein, durch die DVI-Anschlüsse ist das VGA-Signal nicht wirklich schlechter geworden.

Ich freue mich auf Euere Tips. Danke!

Matrox G450 PCI als 2. Karte einbauen. Die liefert richtig scharfe Bilder auf VGA. Dazu ein KVM-Switch …

cu

Besten Dank auch! Das bestätigt zumindest meine Vermutungen.

Es schockt mich nur ein wenig, daß es tatsächlich schon so ist.

Zumindest konnten die Grafikkartenhersteller sich wohl diese schlechte Produktqualität zu Zeiten als Grafikkarten noch standardmäßig einen VGA-Sockel hatten und die User CRTs benutzten noch nicht erlauben.

Inzwischen kommen sie damit wohl wirklich durch, da fast nur noch pixelige TFTs an den Grafikkarten hängen.

Matrox ist schon was feines aber leider habe ich keinen PCI-Slot mehr frei. Da auch inzwischen sich noch andere Schwächen des ATI-Grafik-Chips und der ATI-TReiber zeigten, ist das wohl das Aus für ATI bei mir, endgültig. Werde wieder reumütig zu NVIDIA zurückkehren.

Ich habe mir jetzt mal eine XFX gekauft, da bei diesem Hersteller ich noch nicht enttäuscht wurde. Zumindest war meine letzte „Gamerkarte“ eine GeForce 7800 GS mit VGA-Sockel von XFX und ich muß sagen sie war in der Signalqualität von einer Matrox nicht wirklich zu unterscheiden! Mal sehen, werde hier mal das Ergebnis posten, wenn ich sie habe.

Noch eine Frage zu Schluß die mir grad so einfällt:
Ist der RAMDAC bei der ATI-Karte im Chip integriert, oder separat auf der Platine? Falls er im Chip integriert ist, wäre das zu traurig für ATI. Dann kann diese Firma von mir aus Pleite gehen.

Grafikkarte von XFX GeForce 7900 GTX Extreme mit default 675 MHz Core ist da.

Brilliantes Bild one Schatten unter 2D. Karte läuft stabil bei 3D-Anwendungen mit 720 MHz Core auf Dauer. Kommt mit 100% Lüfterdrehzahl nicht über 37°c bei offenen Gehäuse. Ist sicher noch erheblich mehr drin.

760 Core/970 RAM bei Stalker stabil.

Nee, das deckt sich mit einem Erfahrungen. Highend Gamer
Karten liefern auf VGA recht schlechte Signale und OC-Karten
brechen dann ganz ein.

Und hier die Ausnahme! XFX. Brilliantes Bild. Die Karte ist ab Werk schon übertaktet und schafft dennoch 13% mehr unter heiklen Games wie STALKER. Vermutlich ist die Karte oc dank des guten Kühlers schneller als die 8800 GTS mit 320 MB. Zumal sie 500 MB Speicher hat. Da müssen auch weniger Texturen aus dem Arbeitspeicher geladen werden.

770 Core/970 RAM bei Stalker stabil. Darüber Gafikfehler.