Update zum CrossFire-Hack

KairoCowboy

Vice Admiral Special
Mitglied seit
20.02.2003
Beiträge
857
Renomée
9
Standort
Fürth
Wie wir vor kurzem <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1120658621">berichteten</a>, hat die asiatische HKEPC per BIOS- und Treiberhack einen CrossFire-Verbund ohne eine eigentlich benötigte CrossFire Edition (Master-Karte) erreicht. Die Perfomancesteigerung konnten durch Benchmarks und Spieletests auch "bewiesen werden" und war mit dem Hack nahezu identisch zu den Werten einer echten CrossFire-Konfiguration.
Die Bilder wurden hierbei zwar mit der Power beider VPUs gerendert, den Monitor wirklich erreichen würden aber lediglich die Hälfte der gerenderten Bilder, also nur jedes zweite, quasi die von einer Karte.Ursache ist hier schlicht und einfach der fehlende Composite-Chip einer echten CrossFire Karte, der die gerenderten Bilder beider Karten zu einem VESA-kompatiblen Bild vermischt. Der "Fehler" sei nur deshalb nicht zu sehen gewesen, da als Rendertechnik hier Alternate Frame Rendering zum Einsatz kam (jede Karte berechnet also abwechselnd ein ganzes Bild). Im Falle von Scissor (jede Karte rendert jeweils die Hälfte des Bildes) oder Super Tiling (Frame wird in Schachbrettmuster zerlegt und die Karten rechnen abwechselnd ein "kleines Quadrat") hätte man den Fehler in Form von fehlenden Bildteilen bemerkt.

Eine Sprecherin aus dem Hause ATI dazu:
"Was man ohne die Crossfire Edition Grafikkarte sieht, ist lediglich der Output einer Karte, also nur die Hälfte des Bildes. Im Falle des Alternate Frame Rendering ist das also nur jedes zweite Bild einer Crossfire-Konstellation"
 
Dann dürften die Benchmark Werte aber nicht genauso hoch sein wie ne Crossfire-Lösung. Ich mein der Mode den die sagen der nur gehen würde der ist doch für extra quali und dürfte net so viel speed erbringen... ich glaube ATI hat nur muffensausen
 
Wieso, der Benchmark wird doch nicht auf dem Monitor gemessen, sondern direkt im System... Den Monitor erreicht also nur die Hälfte der Frames... Klingt logisch...
 
funktioniert das crossfire eigentlich nur auf den neuen ati boards, oder auch auf nforce4?
 
Aber was nützt mir ein Crossfire, wenn ich eh nur die Hälfte aller Bilder zu sehen bekomme?

Da kann ich doch gleich mit einer Karte fahren - macht dann ja keinen Unterschied...
 
-pcfreak007- schrieb:
aus diesem Posting

Aber was nützt mir ein Crossfire, wenn ich eh nur die Hälfte aller Bilder zu sehen bekomme?

Da kann ich doch gleich mit einer Karte fahren - macht dann ja keinen Unterschied...
Lesen, denken, posten!

Nur bei dem Hack ist das der Fall, dass man anscheinend nur jedes 2. Bild zu sehen bekommt. Bei den original crossfire Karten sieht man natürlich alles.

Aqua
 
-pcfreak007- schrieb:
aus diesem Posting

Aber was nützt mir ein Crossfire, wenn ich eh nur die Hälfte aller Bilder zu sehen bekomme?

Da kann ich doch gleich mit einer Karte fahren - macht dann ja keinen Unterschied...

*greater* *clap* *rofl* *rofl* *glaubses*


mfg
 
das wärs ja... 2 karten im system und kein unterschied!
nggnng....
kanns echt nicht mehr hören, sämtliche seiten sind voll damit. mein gott, hätten die dämlichen freaks einmal auf den monitor geguckt, hätte man den unterschied gesehen und es wäre nicht so ein hype entstanden... man wird doch wohl beim 3dmark sehen, ob er mit 10 oder 20 frames abläuft... tz tz
 
Wäre ja auch schwer komisch gewesen, wenn das einfach so mit nem Bios und Treiberhack zu machen gewesen wäre!
Wenn das ein paar Bastler einfach so hinkriegen würden, warum braucht dann ATI solange? *lol*
So einen Hack hätte ATI in viel kürzerer Zeit machen können wenn es möglich gewesen wäre.
- Aber es ist eben nicht so einfach möglich und benötigt neben einem anderen Treiber auch andere (zusätzliche) Hardware. - Für mich ist das völlig logisch, ich weiss gar nicht warum die Leute da alle drauf reinfallen und jetzt so einen hype drum machen. ??? ???
 
[³dgamer] schrieb:
aus diesem Posting

das wärs ja... 2 karten im system und kein unterschied!
nggnng....
kanns echt nicht mehr hören, sämtliche seiten sind voll damit. mein gott, hätten die dämlichen freaks einmal auf den monitor geguckt, hätte man den unterschied gesehen und es wäre nicht so ein hype entstanden... man wird doch wohl beim 3dmark sehen, ob er mit 10 oder 20 frames abläuft... tz tz

Sicherlich haben die das auch gemerkt, aber die gemessene Leistung entspricht ja eben die von Crossfire. Ist ja wohl logisch das sie sich so erstmal präsentieren. Da wird wohl niemand gleich zugeben das man aber trotzdem nur die Bilder eine Graka sieht.
Eventuell gibt es ja später noch eine Möglichkeit die beiden Bilder von beiden Karten auf einen Monitor auszugeben. Vielleicht kann man ja irgendwie beide Bilder überlagern, keine Ahnung, bin da nicht so technisch begabt^^
 
nunja, bleibt zu bedenken, ob man das wirklich merkt, wenn man hinschaut. (normal schon, denn da bleibt das Bild ja doppelt so lang auf dem Monitor, oder?)

bei 80 fps intern also real auf dem Monitor 40 fps, das duerfte doch auffallen, wenn man sich das ansieht?!

gruss
skell
 
Aqualon schrieb:
Lesen, denken, posten!

Nur bei dem Hack ist das der Fall, dass man anscheinend nur jedes 2. Bild zu sehen bekommt. Bei den original crossfire Karten sieht man natürlich alles.

Aqua

richtig, sagte ich auch schon in passenden threads das macci das erwähnte. :)
 
Echt heute macht hier jeder einen auf selbstverständlich, helfen denkt etc.
Aber wenn ich da an gestern denke, wo der arme RLZ allein mit seiner Meinung
auf weiter Flur war....


Ihr seid echt die Größten - ich bewunder Euch ! :]
 
Dario schrieb:
aus diesem Posting

Echt heute macht hier jeder einen auf selbstverständlich, helfen denkt etc.
Aber wenn ich da an gestern denke, wo der arme RLZ allein mit seiner Meinung
auf weiter Flur war....


Ihr seid echt die Größten - ich bewunder Euch ! :]
Naja, sie machen sich halt über HKEPC lustig, weil die bei nem echt lahm laufenden 3DMark nichtmal erkennen, dass es eigentlich nur halb so schnell läuft. Ich bin gestern natürlich selbst davon ausgegangen, dass das alles hätte passen müssen, und die doch nicht so "blöd" sein können.
 
Der große Vorteil der Crossfire Technology ist ja wie von der PCGH beschrieben, die Aufteilung in ein Sachbrettmuster. Stellt euch mal vor, wenn man wie bei nVidia das Bild in 2 Hälften teilt. Oben eine und unten eine. Beispiel Flugsimulator: Die Hälte oben ist fast komplett mit Himmel bedeckt, der nur geringe Rechenkraft benötigt, wärend unten Städte und die aufwendigen Reflektionen des Flugzeugs berechnet werden müssen. Ungleich verteilte Rechnerei. Da ist der Vorteil von der Crossfire Technology und deshalb ist ein Hack zwar möglich, bringt aber nicht so viel wie eine echte Crossfire Karte.

Gruß GSJLink
 
Ja aber noch ne Kleinigkeit. Ihr meckert alle aber INTERN sind wohl alle bilder berechnet worden...

Das heißt es ist nur noch ein KLEINES problem beide bildinformationen auf den monitor zu bringen. Und ich denke das wird auch noch geschafft. Fehlt eigentlich nur dieses Doppelkabel und das wird wohl net so teuer sein wie der aufpreis für ne corssfirekarte
 
Desertdelphin schrieb:
aus diesem Posting

Ja aber noch ne Kleinigkeit. Ihr meckert alle aber INTERN sind wohl alle bilder berechnet worden...

Das heißt es ist nur noch ein KLEINES problem beide bildinformationen auf den monitor zu bringen. Und ich denke das wird auch noch geschafft. Fehlt eigentlich nur dieses Doppelkabel und das wird wohl net so teuer sein wie der aufpreis für ne corssfirekarte


Und lt. Ati auch der Composite chip, wie in der News beschrieben ;-)
 
GSJLink schrieb:
aus diesem Posting

Der große Vorteil der Crossfire Technology ist ja wie von der PCGH beschrieben, die Aufteilung in ein Sachbrettmuster. Stellt euch mal vor, wenn man wie bei nVidia das Bild in 2 Hälften teilt. Oben eine und unten eine. Beispiel Flugsimulator: Die Hälte oben ist fast komplett mit Himmel bedeckt, der nur geringe Rechenkraft benötigt, wärend unten Städte und die aufwendigen Reflektionen des Flugzeugs berechnet werden müssen. Ungleich verteilte Rechnerei. Da ist der Vorteil von der Crossfire Technology und deshalb ist ein Hack zwar möglich, bringt aber nicht so viel wie eine echte Crossfire Karte.

Gruß GSJLink

he?

SLI hat für das doch Load Balancing?!

das war doch nru bei 3dfx der Fall, dass es in 50:50 geteilt wird...?!

und was nützt mir dann das schachbrettmuster?
Wenn ich geometrische Objekte berechnen muss, dann kommt 1 Objekt oft mal auf beiden Grakas vor - müssens die dann beide separat berechnen?

Das wär ja mal doof...

Loadbalancing ist IMHO besser...

cya
 
warum sollte der chip fehlen? ..

die frage ist nur kann man die karte dazu zwingen wirklich KEIN signal rauszugeben wenn sie grade "nicht dran" ist.

dann dürfte ein einfaches kabel mit 2 Grafikkarten und einem monitoranschluss dafür genügen.

denn dem monitor ist es ja total wurscht von wem das bildsignal kommt. kommt bildsignal -> zeigt bild.

ich finde den hack immer noch realisierbar. ohne den extrachip.

kann mir nicht vorstellen das so eine "simple" aufgabe wie 2 quellen die zu unterschiedlichen zeiten etwas anzeigen zu sycronisieren unbedingt einen microchip benötigt.
 
BLJ schrieb:
aus diesem Posting

he?

SLI hat für das doch Load Balancing?!

das war doch nru bei 3dfx der Fall, dass es in 50:50 geteilt wird...?!

und was nützt mir dann das schachbrettmuster?
Wenn ich geometrische Objekte berechnen muss, dann kommt 1 Objekt oft mal auf beiden Grakas vor - müssens die dann beide separat berechnen?

Das wär ja mal doof...

Loadbalancing ist IMHO besser...

cya

Nein, das Objekt muss nicht doppelt berechnet werden. Dafür ist der Composite Chip da.

Gruß GSJLink
 
Es war in PLanung vor EWIGkeiten ein software-SLI tool zu basteln. kam leider nie raus.

Idee war einfach:

2 Grakas (tool sollte sogar unterschiedliche unterstützen) berechnen jeweils die hälfte des bildes. Das tool schaut dabei aber auch das die verteilung gut ist (zB das flight simulator beispiel) je nachdem was wie stark beansprucht wird teilt das tool das ganze auf. Müsste doch recht einfach zu realisieren sein auch ohne chip... das kann ja die cpu locker übernehmen.
 
Ich denk mal schon das ein Microcontroller zum steuern der Signale notwendig ist, da man ja theretisch zwischen den beiden Monitorausgängen hin und her schalten muss, so das immer nur das Signal von einer Grafikkarte auf dem Monitor liegt, ansonsten würden sich die Signale überlagern. Dies würde auf jedenfall zu Fehldarstellungen führen und könnte sogar die Grafikkarte beschädigen (Spannungsdifferenz zwischen den Grafikkarten usw.).
Und das Umschalten müsste auf jedenfall von einem µC gesteuert werden, wegen der Unterschiedlichen FPS die man wärend des Spielens hat.
Also nix mit doppelt Kabel und so einem Schnee.

Ich hafte nicht für die Rechtschreibung *g*.
 
Zurück
Oben Unten