Crossfire und DirectX allgemein

Ich bin grade dabei mir einen neuen Rechner zusammen zu stellen (so1366) und möchte mir mal was Leistungsstärkeres an Grafik verbauen. Ich hab mich daher versucht viel mit ATI-Crossfire-X zu beschäftigen und kahm als effizenteste Mögichkeit auf vier Radeon HD4870 GPUs gekommen (passt in den Geldbeutel). Diese können aber trotz Leistung satt nur DX10. Mein Lieblingsspiel läuft aber auf DX11 (Win7). Daher folgende Fragen:

Sieht man als Nichtfachkundiger überhaupt den Unterschied zwischen DX10 und DX11?
Gibt es die Möglichkeit die fehlende DX11 Fähigkeit zu Emulieren oder fällt diese dann einfach weg?
Im Falle einer Emulation ist der zusätzliche Leistungsverbrauch ehr hoch oder ehr niedrig?
Macht es Sinn übergansweise eine Hd5750 und zwei HD4870 zu kombinieren und regelt der Treiber selbst die obtimale Konfiguration?

(Die HD5750 und die HD4870 haben ausser dem Grafikchip die gleichen Daten.)

Grüsse

nabend,

Sieht man als Nichtfachkundiger überhaupt den Unterschied
zwischen DX10 und DX11?

weiss ich nicht.

Gibt es die Möglichkeit die fehlende DX11 Fähigkeit zu
Emulieren oder fällt diese dann einfach weg?

letzteres.

Macht es Sinn übergansweise eine Hd5750 und zwei HD4870 zu
kombinieren und regelt der Treiber selbst die obtimale
Konfiguration?

(Die HD5750 und die HD4870 haben ausser dem Grafikchip die
gleichen Daten.)

meines wissens muss die serienzugehörigkeit identisch sein (zb. 48… oder 58…), mischen funktioniert nicht.

aber grundsätzlich stellt sich die frage der sinnhafigkeit deines vorhabens. und zwar aus folgendem grund:
4x 4870 verbrauchen unter volllast etwa 600watt, im 2d betrieb ca 200 watt.
dafür benötigst du evtl ein neues (marken-) netzteil mit unglaublichen 850watt - das kostet auch.
vergleichbare grafikleistung sollte zb von einer einzelnen 6990 erreicht werden mit einer maximalen „heizleistung“ von 300 watt (2d betrieb etwa 40 watt)
dafür reicht evtl noch dein vorhandenes netzteil.
und du sparst strom.

gruss wgn (der mit seiner 4850 an die grenzen stösst, aber niemalsnicht ne 2te dazuholen würde, sondern gleich eine modernere.)

ps: wenn mir kalt ist, drehe ich die heizung auf…:wink:

Hallo,

Ich bin grade dabei mir einen neuen Rechner zusammen zu
stellen (so1366)

Aha, wenn du meist. Da es sich wohl um Gamer-PC handelt,
macht das wohl nur nicht viel Sinn.

und möchte mir mal was Leistungsstärkeres an
Grafik verbauen. Ich hab mich daher versucht viel mit
ATI-Crossfire-X zu beschäftigen und kahm als effizenteste
Mögichkeit auf vier Radeon HD4870 GPUs gekommen (passt in den
Geldbeutel).

LOL, erst eine überteuerte CPU, die du nicht brauchst,
und jetzt kein Geld für 'ne ordentliche GraKa?
4 Mittelklasse-GraKa im Verbund machen aber eh wenig Sinn.
Vermutlich geht es dir dann wie ihm hier:
/t/500watt-vs-sli/6682091/19

Diese können aber trotz Leistung satt nur DX10.

Ja.

Mein Lieblingsspiel läuft aber auf DX11 (Win7).
Daher folgendeFragen:
Sieht man als Nichtfachkundiger überhaupt den Unterschied
zwischen DX10 und DX11?

Riesig werden die Unterschiede nicht sein, aber wenn man
keinen Unterschied bemerken würde, wären die Aufwendungen
irgendwie überflüssig.

Gibt es die Möglichkeit die fehlende DX11 Fähigkeit zu
Emulieren

Nein.

oder fällt diese dann einfach weg?

Ja.

Im Falle einer Emulation ist der zusätzliche
Leistungsverbrauch ehr hoch oder ehr niedrig?

Der wäre bei 4 alten Stromschlucker-GraKa eh exorbitant.

Macht es Sinn übergansweise eine Hd5750 und zwei HD4870 zu
kombinieren und regelt der Treiber selbst die obtimale
Konfiguration?

Nix ist unmöglich, aber es wird sehr wahrscheinlich nie
funktionieren.
Was willst du aber überhaupt mit eine Super-Duper-GraKa-Verbund, wenn du dann die neunen Features der Spiele
gar nicht nutzen kannst?

Mein Rat: Lass dir hier vor dem Kauf zur Zusammenstellung
deines PC beraten. Hinterher kannst du nur noch Häme
ersten, wenn das Geld weg ist, die Kiste aber nicht läuft.
Gruß Uwi

Ja ich komm mal in den Genuss für zwei ein halb Jahre keine Stromrechnung zu bekommen. So kahm ich überhaupt erst drauf mal mit Strom um mich zu werfen, da ich sonnst immer Stromspar-PCs gebaut habe (mein aktueller 60w leer und 80w voll). die HD6990 ist ein echter Leckerbissen geb ich gern zu. Aber wo ich für die eine 600 bzw 700 Euro hinblätter bleibts bei den zwei HD4870x2 bei mir bei ca 100 Euro kosten. Eins davon kann ich machen das andere nicht. Im Zweifelsfall bekomm ich vieleicht noch zwei HD5870x2 für 150 euro zusammen. Bräuchte ich aebr viel gedult für.

Sollte ich eine HD4870x2 und eine HD5870x2 kombinieren kann ich dann DX11 nutzen?

Ich lass mich gern beraten so ist das nicht. Ich werd nur eine Graka recht schnell gegen Geld los und Probleme mit Strom und Hitze habe ich nicht (hat schon seine Gründe warum ich das schreibe).
Ich denke ich werd mir erstmal eine HD4870x2 besorgen und wenn ich mit der einen schon sehe das geht nicht in meine Richtung brauch ich ja keine zweite besorgen. Aktuell ist es aber so dass ich eine HD5750 habe und ich mal weiter zu Mehr-GPU-Technik gehen möchte. Also habe ich die Wahl mir eine Zweite HD5750 zu besorgen um dann zu jammern „ach hätt ich nochmal zwei mehr davon“… oder ich besorg direkt eine Dual-GPU-Karte wobei ich mir die teureren Dinger gar nicht erst leisten kann (möchte). An eine HD4870x2 ist für mich für sehr schmale Kasse aber ein sehr leichtes rankommen. Von daher ist es für mich logich mit dieser anzufangen und dann zu schauen obs das für mich ist oder ob ich mit HD5870x2 weitermachen sollte. Darüber hinaus möchte ich bei diesem PC nicht gehen. Abgesehen davon ist eine 4870x2 schon unterwegs zu mir die aber ein Weihnachtsgeschenk an einem Freund wird.

Hi racepilot,

Ich bin grade dabei mir einen neuen Rechner zusammen zu
stellen (so1366)

Ich halte die für diesen Sockel passenden CPUs nur zum Zocken für übertrieben. Besonders CPU-lastige Spiele fordern von meinem nicht übertakteten i5-2500K grad mal 35-40% - trotz 2 relativ großer hochauflösender Monitore und meißt mehrerer nebenbei laufender Anwendungen.

kahm als effizenteste
Mögichkeit auf vier Radeon HD4870 GPUs gekommen (passt in den
Geldbeutel). Diese können aber trotz Leistung satt nur DX10.
Mein Lieblingsspiel läuft aber auf DX11 (Win7).

Viel Geld, Risiken, Strom und fast zwangsläufig Ärger für 4 Mittelklasse-Grafikkarten investieren um Spiele dann nichtmal ausreizen zu können … Wieso muss ich grad an eine Geldrolle denken, die zum Fenster rausfliegt ?!

Sieht man als Nichtfachkundiger überhaupt den Unterschied
zwischen DX10 und DX11?

Das weiss ich leider nicht.

Macht es Sinn übergansweise eine Hd5750 und zwei HD4870 zu
kombinieren und regelt der Treiber selbst die obtimale
Konfiguration?

Kann funktionieren, muss aber nicht.
Der Hersteller meiner beiden ausprobierten Karten (gleiche Modellnummer) versicherte mir, dass die zwar die gleichen sind aber nur aufgrund unterschiedlicher Revisionen schon nicht zusammen laufen müssen.

Da ich es ausprobiert habe, kann ich mich Uwi nur anschliessen und Dir raten Dein Geld sinnvoller in eine RICHTIGE Karte zu investieren.
Zwar wirst du mit mehreren Karten in sämtlichen Benchmarks und FPS-Metern unglaubliche Werte erzielen sofern Du die 4 Dinger überhaupt dauerhaft zum Laufen kriegst, aber Du hast nichts davon.
Der Unterschied zwischen rechnerischer FPS und tatsächlich gesehener fps wird Dir im folgenden Link erklärt. Klick mich
Mal davon abgeshen, dass sich die meißten Berichte darüber einig sind, dass das Problem bei AMD derzeit noch größer ist als bei nVidia, da die schon einiges im Treiber optimiert haben.

Ach … ich les grad, dass 75-85°C im solo-Betrieb nichts außergewöhnliches für diesen Chip sind … .dürfte interessant werden, wenn die direkt übereinander liegen.

Gruß
Willi

Ja ich komm mal in den Genuss für zwei ein halb Jahre keine
Stromrechnung zu bekommen. So kahm ich überhaupt erst drauf
mal mit Strom um mich zu werfen, da ich sonnst immer
Stromspar-PCs gebaut habe (mein aktueller 60w leer und 80w
voll). die HD6990 ist ein echter Leckerbissen geb ich gern zu.
Aber wo ich für die eine 600 bzw 700 Euro hinblätter bleibts
bei den zwei HD4870x2 bei mir bei ca 100 Euro kosten. Eins
davon kann ich machen das andere nicht. Im Zweifelsfall bekomm
ich vieleicht noch zwei HD5870x2 für 150 euro zusammen.
Bräuchte ich aebr viel gedult für.

du hast das mit grösster wahrscheinlichkeit neu benötigte netzteil vergessen - für ein erstzunehmendes 850watt netzteil musste nochmal 100-200 flocken drauftun, sonst brauchste dich nicht über unerfindliche abstürze wundern…
ausserdem muss ein vernüftiges wärmemanagment des gehäuses her, oder du musst es offen lassen (aber dann brauchste ohropax).

Sollte ich eine HD4870x2 und eine HD5870x2 kombinieren kann
ich dann DX11 nutzen?

das geht nicht!!!

wie schon in meiner ersten antwort erwähnt, müssen die beteiligten grakas allesamt auf dem gleichen chipsatz beruhen.
http://sites.amd.com/PublishingImages/Public/Graphic…

die olle hd48… serie ist dort erst gar nicht mehr aufgeführt…
(das sollte dir zu denken geben :wink: )

gruss wgn

ps: das fand ich erschreckend:
http://www.youtube.com/watch?v=g7utgNJZLfE

(und das mit „richtiger“ frischluft (nicht vorgewärmt durch andere pc-komponenten))

nochwas: hol dir für 150 flocken ne 6850/6870 (kannst evtl dein altes nt weiterverwenden) und wenn du wieder talers hast, bau damit nen crossfireverbund auf (wobei dann vermutlich auch ein neues nt hermuss).

Ok die Tebelle sehe ich jetzt zum ersten mal. Gehe jetzt also mal davon aus der gleiche Chip muss es sein. Ist es denn wenigstens so dass es genügt dass ich das gleiche Referenzdesign verwende und so Karten verschiedenner Hersteller verwenden kann, oder muss es auch der gleiche Hersteller sein?

Das Video fand ich gut. Aber für mich bedeutet das nur immer warme Popcorns… Zwinker… Nein wirklich ich zerlege jede Graka vor der Verwendung und entferne als erstes die billige Siliconpaste und verwende welche mit über 10K/mW. Und Frischluft wird auch an die Karten kommen. Soweit habe ich schon gedacht. Sollte sie trotzdem mal etwas zu warm werden habe ich auch damit kein Problem. Glaub mir Hitze ist nicht wirklich ein Problem bei meinen Computern.

Was das NT angeht auch daran dürfte ich recht kostengünstig rankommen. Für den Pc ist eh ein neues vorgesehen. Aber ich mein auch gelesen zu haben dass die HD4870x2 ca 140w Verbrauch hat. Ich mein vieleicht habe ich mich auch komplett verlesen und es war die HD4870 die so viel verbraucht. Glaub ich aber nicht denn meine HD5750 liegt bei 85w Verbrauch. Wie auch immer ich habe so oder so immer einen Wattmeter dabei und wenn der mir mit einer HD4870x2 (oder was grösseres) anzeigt dass der Verbrauch an die grenze des Netzteils kommt weiss ich he da brauchts mehr. Soweit denke ich schon… Zwinker…

Und ohne was schlecht machen zu wollen. Aber schön dass die Hd6870 nur 150 Euro kostet… Die HD6870x2 liegt mal eben bei 300 bis 400 Euro.

Und um mal etwas näher auf die Frage zu kommen warum sparrt der so an der Graka… Einfach weil ichs an den anderen Teilen auch mache. Das Rampageboard habe ich für 88, Das Cl7 Ram für 25 Euro bekommen. Und die i7 920 bekomme ich auch noch für 100 Euro hin… (ist übrigens alles auf herz und nieren überprüft also alles korrekt so). Ich will ja hier kein High End PC für 2000 Euro bauen sondern einer der grad mal so von gestern ist für weniger als 500 Euro. Und ich denke so schlecht mache ich mich bis jetzt gar nicht mal. Ist aber hier ein ganz anderes Thema…

Ach … ich les grad, dass 75-85°C im solo-Betrieb nichts
außergewöhnliches für diesen Chip sind … .dürfte interessant
werden, wenn die direkt übereinander liegen.

Sehe ich genauso. Zwinker… Wird ne heisse Sache…
Nein das mit den Microrucklern hab ich schon gelesen. Aber um die Katze mal aus dem Sack zu lassen ich spiele seit Jahren neben den Fernsehen X-Universe (aktuell X3TC). Und wenn ich hier alle Effete ein und alle Qualität hoch schraube kann ich selbst bei geringster Auflösung nicht mal Antialiasing einschalten. Wenns dann mal zum heftigen Kampfgefecht kommt ist die HD5750 schon so überladen dass das Spielen kein Spass mehr macht. Also versuche ich mit unsinnig Leistung drüber zu Kloppen. Erst recht wo jetzt X4-Rebirth raus kommt.

Siliconpaste und verwende welche mit über 10K/mW.

Hab die Einheit falsch benannt. Korrekt ist 10,2 W/m°C. Lag aber nahe dran.

Ein Leidensgenosse :smile:
Ich bin auch im X-Universum unterwegs und kenne das Problem … X Rebirth wurde ja erstmal verschoben - Ich hoffe wir können bis Ende 2012 damit rechnen.

Du kannst dieses Spiel nicht mit Leistung erschlagen, weil es diese schlicht und ergreifend nicht nutzt. Das Spiel nutzt nur einen CPU-Kern, dafür steigt die FPS fast Linear mit der Taktfrequenz der CPU.
Die Grafikkarte füllt nur die Texturen, wird also nur dann gefordert, wenn Du Dich Objekten auf 10km oder weniger näherst.
Dass das Spiel von MultiGPU profitiert, wage ich zu bezweifeln da fast alles von der CPU berechnet und dargestellt wird.

Gruß
Willi

Ja dann erstmal ein erster Kommentar: Mist…
Das der nur ein Kern nutzt wusste ich so jetzt auch nicht. Ist ja immerhin noch immer die erste Originalengine. Die wollen die Leutz ja nu endlich mal ersetzen. Aber wie was wo taugt denke ich ist ein Fall von versuch und Misserfolg. Ich mein ich kauf dir das so ab dass Leistung drüberkloppen nichts bringt. Aber die Graka ist jetzt nunmal unterwegs und wenn sie schonmal da ist kann ich sie ja auch mal einbauen.
Kannst du mir sagen ob wenigstens die verbesserte Architektur des so1366 eine Leistungssteigerung im Spiel bringt (gurke grad auf AM2+ rum)?

Grüsse

PS: Im unübersichtlichem Kampfgefecht hats aber was gebracht die Grafik auf absolut minimum zu stellen. Von daher war es für mich logisch mehr Grafik zu verbauen…

nabend,

Ok die Tebelle sehe ich jetzt zum ersten mal.

hmm, ich dacht du hättest dich mit crossfire beschäftigt - wenn du sowas oder ähnliches das erste mal siehst, würde ich deine vorbeschäftigung als zeitverschwendung einstufen…

Gehe jetzt also
mal davon aus der gleiche Chip muss es sein. Ist es denn
wenigstens so dass es genügt dass ich das gleiche
Referenzdesign verwende und so Karten verschiedenner
Hersteller verwenden kann, oder muss es auch der gleiche
Hersteller sein?

wie schon von einem anderen antworter in diesem artikelbaum erwähnt, ist manchmal sogar die serien/revisionsnummer wichtig.
verschiedene hersteller bedeuten evtl auch mehr risiken bezüglich eines vernünftigen/effizienten zusammenspiels.
(aber dafür fehlen mir erfahrungen - ich rate nur auf basis meines gefährlichen halbwissens.)

Das Video fand ich gut. Aber für mich bedeutet das nur immer
warme Popcorns… Zwinker… Nein wirklich ich zerlege jede
Graka vor der Verwendung und entferne als erstes die billige
Siliconpaste und verwende welche mit über 10K/mW. Und
Frischluft wird auch an die Karten kommen. Soweit habe ich
schon gedacht. Sollte sie trotzdem mal etwas zu warm werden
habe ich auch damit kein Problem. Glaub mir Hitze ist nicht
wirklich ein Problem bei meinen Computern.

Aber ich
mein auch gelesen zu haben dass die HD4870x2 ca 140w Verbrauch
hat. Ich mein vieleicht habe ich mich auch komplett verlesen
und es war die HD4870 die so viel verbraucht. Glaub ich aber
nicht denn meine HD5750 liegt bei 85w Verbrauch.

bevor ich viel schreibe:
http://www.pc-erfahrung.de/grafikkarte/vga-grafikran…

such dir dein zeugs selbst raus…*g*

Wie auch
immer ich habe so oder so immer einen Wattmeter dabei und wenn
der mir mit einer HD4870x2 (oder was grösseres) anzeigt dass
der Verbrauch an die grenze des Netzteils kommt weiss ich he
da brauchts mehr. Soweit denke ich schon… Zwinker…

Und ohne was schlecht machen zu wollen. Aber schön dass die
Hd6870 nur 150 Euro kostet… Die HD6870x2 liegt mal eben bei
300 bis 400 Euro.

grafikleistungsmässig liegst du mit einer „nur“ 150watt verbrutzelnden auf augenhöhe mit einer 4870x2 und kannst evtl noch dein altes netzteil verwenden - sparst also geld.
und kannst dx11 nutzen.
wennde wieder talers hast, holst du dir eine 2te 6870 (mitsamt neuen netzteil) und bist ganz weit vorn…

gruss wgn

Hi racepilot,

vorab entschuldige mich bei allen nicht X-Universe-Jüngern, hier so abzuschweifen …

Kannst du mir sagen ob wenigstens die verbesserte Architektur
des so1366 eine Leistungssteigerung im Spiel bringt (gurke
grad auf AM2+ rum)?

Ja, ich denke schon. Die meißten (in einschlägigen Foren) geposteten von der X3-Demo gemessenen Benchmarkergebnisse bezeugen die Abhängigkeit von der tatsächlichen Taktfrequenz und da hat Intel nunmal die Nase vorn weil z.B. ein Athlon 4000 nunmal keine 4GHz hat.

Also wenn ich zwischen meinen Komplexen herumeiere oder Kämpfe bestreite (viele Texturen im Nahbereich) dann reisst natürlich die Grafikkarte ziemlich was raus … eben leider NUR dann.

Was viel mehr gebracht hat, wer der Umstieg auf die neue CPU … Überaschend, dass anders als bei den meißten anderen Games die Spielbarkeit sogar beim manuellem übertakten der CPU enorm profitiert. Wie gesagt FPS quasi linear zur Taktfrequenz.

Die core i-Teile verändern ja den Multiplikator je nach Bedarf.
Umso weniger Kerne genutzt werden, desto höher der Multiplikator für die aktiven Kerne, wovon das Spiel extrem profitiert.
Meiner z.B. läuft so:
4 Kerne bei 3,3 GHz (100x33)
3 Kerne bei 3,8 GHz (100x38)
2 Kerne bei 4,2 GHz (100x42)
1 Kern bei 4,4 GHz (100x44)

Da 1-2 aktive Kerne nur noch einen Bruchteil dessen verbrauchen was die CPU maximal zieht, kann ich da sehr hoch takten weil auch erheblich weniger Wärme erzeugt wird. Und in X3 merkt man das deutlich.

Ob allerdings zwischen meiner i5-2500K (S1155) und einer S1366 CPU große Unterschiede in X3 spürbar sind wage ich zu bezweifeln. Wenn ich nicht falsch informiert bin, kommen da lediglich ein paar hundert MHz und 4 „zusätzliche“ virtuelle Kerne hinzu. Mir wurde in entsprechenden Foren davon abgeraten da die dicken CPUs im Bezug auf Preis/Leistung unverhältnismäßig teurer sind. Und dieser Punkt betrifft nicht nur X3.

PS: Im unübersichtlichem Kampfgefecht hats aber was gebracht
die Grafik auf absolut minimum zu stellen. Von daher war es
für mich logisch mehr Grafik zu verbauen…

Richtig … betrifft aber wie erwähnt leider nur Szenen im Nahbereich. Sobald Du 20-30km oder weiter entfernt bist werden die Texturen nicht mehr „geladen“ sondern nur noch schemenhaft dargestellt und die Grafikkarte kühlt ab bzw. rutscht größtenteils unter 10% Last.

Eine richtig schnelle Grafiklösung ist demnach fast nur für die Final Fury Missionen erforderlich :wink:

boronische Grüße
Willi

Da haben wir doch aber den Punkt. Ich habe nur im Nahbereich die grösseren Probleme (jene die mich stören). Wen ich weit weg bin läuft alles Prima Klima. Aber mit meinen 4 Spitfire gegen 30 Khaak Scout knickts schon ein. Oder mit meinen 3 M2 Schiffe gegen eine Übermacht mit viel viel Geballer (Geschosse müssen mit effekten dargesellt werden) kommts fast zum Stillstand. Und eben dagen möchte ich mit unnötig Grafikleistung gegenhalten. Eben auch weil ich festgestellt habe dass in so einer Situation die Blickrichtung entscheident ist. Das dumme ist nur im Kampf schaut man dorthin wo die Geschosse herkommen.

Die Liste kannte ich auch noch nicht. Aber auf der ist die hd4870x2 auf dem 13ten Platz. Was ich jetzt nicht verstehe ist was ist DX10.1? Und warum ist die HD5870x2 nicht mit bei? Ist auch grad halbegal… Aber wenn ich wieder was Knete habe wirds ehr eine HD5870x2 und bei bedarf dazu eine mehr. Ich find auch für ie HD6870x2 300 Euro + ein bissel viel für Leistung die ich vieleicht 20 mal im Jahr ausreize.
Werd mich aber jezt mehr auf abslut identische Grakas konzentrieren (Auch darauf achten dass der gleiche Küher drauf ist).