Triple-CrossFireX-Grafikkarte: Asus EAH3850 Trinity

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Bereits in der Vergangenheit hatte Asus mit einer Reihe Dual-GPU-Grafikkarten von sich Reden gemacht - eine mit drei GPUs ist jedoch auch für die Männer aus Taiwan etwas Neues.

Bei der Asus EAH3850 Trinity handelt es sich aber um einen Prototypen, der eher eine Machbarkeitsstudie und weit von einem endgültigen Produkt entfernt ist. Wie die Kollegen von NordicHardware betonen, soll dieser bereits voll lauffähig sein.

Auf der Grafikkarte kommen drei Radeon HD 3850 auf je einem MXM-Module zum Einsatz, die über eine Träger-Platine, die auch die DVI-Anschlüsse bereitstellt, verbunden sind.

<center><pre><a href="http://www.planet3dnow.de/photoplog/index.php?n=1990"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1990"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=1991"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1991"></a></pre>
<pre><a href="http://www.planet3dnow.de/photoplog/index.php?n=1992"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1992"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=1993"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1993"></a></pre>Bildquelle: <a href="http://www.nordichardware.com/news,7543.html" target=_blank">NordicHardware</a></center>
Die GPUs dürften dank der kombinierten Heat-Pipe-Wasserkühlung einen kühlen Kopf bewahren. Ob diese Grafikkarte überhaupt in irgendeiner Version erscheinen wird, ist derzeit völlig unklar, jedoch dürfte sie dann in etwas über dem Niveau einer 3870 X2 anzusiedeln sein.

<b>Quelle:</b> <a href="http://www.nordichardware.com/news,7543.html" target=_blank">ASUS EAH3850 Trinity - three GPUs with one card </a>
 
wird wrs mehr kosten als eine 3870X2 und nicht schneller sein, dabei aber mehr strom und vor allem platz im gehäuse brauchen.

nur Nvidia wird dumm gucken wenn die wirklich auf den markt kommt, den was mit 3 3850 geht sollte mit 3 3870 auch kein problem sein und dann hat AMD die leistungskrone wieder inne.
 
Ich persönlich hoffe, dass diese Karte nie auf den Markt kommen wird.

Meiner Meinung nach ist die Grafikkarten-Industrie an einem Punkt angekommen, an dem ein Umdenken zwingend notwendig ist. Denn wenn ich mir anschaue, welche Probleme derzeitige Dual-GPU-Karten bereiten können, dann bin ich der Meinung, sollte man die Entwicklungsressourcen in Richtung einer einzelnen GPU bündeln.
 
Ich hätte keine Probleme mit solch' einer Karte, wenn sie im Idle kräftig untertaktet, um so Strom zu sparen, und bei Volllast auf Höchstniveau (sprich OC) auffährt.

Diese Karte würde rocken. In Verbindung mit Hybrid-Crossfire einfach genial.

Aber das werden wohl vorerst Träume bleiben.
 
Ich persönlich hoffe, dass diese Karte nie auf den Markt kommen wird.

Meiner Meinung nach ist die Grafikkarten-Industrie an einem Punkt angekommen, an dem ein Umdenken zwingend notwendig ist. Denn wenn ich mir anschaue, welche Probleme derzeitige Dual-GPU-Karten bereiten können, dann bin ich der Meinung, sollte man die Entwicklungsressourcen in Richtung einer einzelnen GPU bündeln.

Meinetwegen auch einer ähnlichen Denkweise wie sie bei den DualCores/QuadCores besteht.
Bin also insgesamt dem "MultiCore"-Prinzip nicht sooooo abgeneigt (also, alles in EINEM Package).
Aber da würden wir immer noch dem Problem der Treiber gegenüberstehen...eine DualCore-GPU ist nun mal einfach nur so gut, wie seine Treiber es ihm erlauben...ist beim DualCore-CPU ja nicht anders...wenn ein Programm eben nur einen Thread öffnet, haste halt nichts vom 2ten Kern.
Und wenn die Grafiktreiber so'n Blödsinn wie zur Zeit bei CF/SLI mit den Mikrorucklern verzapfen, hat das auch alles keinen Sinn.

Aber dieser Schmarrn á la "Wir packen mal 3 GPUs in einzelnen Packages auf eine Platine und freuen uns über das kleinste Fitzelchen mehr Performance" ist auch nichts nach meinem Geschmack.
 
Meinetwegen auch einer ähnlichen Denkweise wie sie bei den DualCores/QuadCores besteht.
Bin also insgesamt dem "MultiCore"-Prinzip nicht sooooo abgeneigt (also, alles in EINEM Package).
Aber da würden wir immer noch dem Problem der Treiber gegenüberstehen...eine DualCore-GPU ist nun mal einfach nur so gut, wie seine Treiber es ihm erlauben...ist beim DualCore-CPU ja nicht anders...wenn ein Programm eben nur einen Thread öffnet, haste halt nichts vom 2ten Kern.
Und wenn die Grafiktreiber so'n Blödsinn wie zur Zeit bei CF/SLI mit den Mikrorucklern verzapfen, hat das auch alles keinen Sinn.

Aber dieser Schmarrn á la "Wir packen mal 3 GPUs in einzelnen Packages auf eine Platine und freuen uns über das kleinste Fitzelchen mehr Performance" ist auch nichts nach meinem Geschmack.

Ich bin auf dem Gebiet absolut kein Experte, aber meiner Meinung nach wird es viele Berechnungen geben, die man überhaupt nur schwer auf mehrere Threads aufspalten kann (oder irre ich da??).

Wenn ich da vielleicht noch einen hohen Verwaltungsaufwand benötige um zu entscheiden, welcher Core/welche GPU was macht, dann ist das in meinen Augen nicht sinnvoll. Parallelisierung ja, aber nur bis zu einem gewissen Punkt.

Nun ja, die Entscheidung zur Produktion der Karte liegt nicht in meinen Händen. :)
 
Ich persönlich hoffe, dass diese Karte nie auf den Markt kommen wird.

Meiner Meinung nach ist die Grafikkarten-Industrie an einem Punkt angekommen, an dem ein Umdenken zwingend notwendig ist. Denn wenn ich mir anschaue, welche Probleme derzeitige Dual-GPU-Karten bereiten können, dann bin ich der Meinung, sollte man die Entwicklungsressourcen in Richtung einer einzelnen GPU bündeln.
IMHO müssen v.a. die Spielehersteller umdenken! Weniger Schein und mehr Sein - sprich endlich mal wieder mehr Wert auf die Story, die Atmosphäre etc. legen. Allein mit noch so geiler Grafik lässt das nich ausgleichen - und außerdem kann man ne echt schöne Grafik mit ner effektiv programmierten Engine auch deutlich ressourcenschonender darstellen...
 
Und ein wenig mehr Arbeit in die Optimierung stecken, anstatt darauf zu spekulieren, dass die Leute entweder warten oder neue Hardware kaufen.

Am Beispiel von auslaufenden Konsolen kann man schön sehen, was man alles erreichen kann, wenn man Spiele effektiv programmiert.
 
Ich würde da eher auf einen undichten WaKü Mod schließen ^^

ciao

Alex
*chatt*

Dann besser formuliert: Am Beispiel Konsolen, deren Nachfolger bereits angekündigt sind und deren direkter Konkurrent bereits eine Generation vorne liegt,...
 
Ich bin auf dem Gebiet absolut kein Experte, aber meiner Meinung nach wird es viele Berechnungen geben, die man überhaupt nur schwer auf mehrere Threads aufspalten kann (oder irre ich da??).
Im Grafikbereich ist das ganz anders als bei CPUs, die Grafikberechnungen lassen sich sehr gut parallel abarbeiten. Deswegen haben die Chips ja auch (je nach Zählweise) zig bis hunderte Shader, ein CPU-Kern ist sozusagen nur ein "Shader" (der Vergleich hinkt natürlich stark wegen ganz anderer Architektur).

Die Probleme bei CF/SLI liegen wohl mehr in der Treiberarbeit, Mikroruckler sind im Grunde nur ein Synchonisationsproblem. Auch läuft eben nicht jedes Spiel damit, aber theoretisch wäre das immer möglich. Dort wo es gut programmiert ist, ist die Skalierung ja auch sehr gut.

Die weiteren Probleme wie Stromverbrauch usw. sind ja alle nur eine Frage der Dimensionierung, wenn man z.B. mehrere RV615-Chips kombinieren würde, käme man wohl nicht auf 100W, umgekehrt könnte man auch einen Einzelchip konstruieren, der 300W wegnuckelt.

Also ich würde das Konzept nicht grundsätzlich ablehnen, nur die bisherigen Realisierungen sind noch verbesserungsbedürftig und daher in vielen Punkten noch den herkömmlichen 1-Chip-Lösungen unterlegen. Aber in ein paar Jahren wird das sicher ganz anders aussehen.
 
Auf der Grafikkarte kommen drei Radeon HD 3850 auf je einem MXM-Module zum Einsatz, die über eine Träger-Platine, die auch die DVI-Anschlüsse bereitstellt, verbunden sind.

Anstatt derartiger sinnbefreiter Technikspielereien mit MXM-Modulen würde ich mir wünschen, dass im Notobook-Bereich endlich ein produktübergreifender Standard geschaffen würde, der ein einfaches Upgrade der Grafikmodule erlaubt. :]
 
Anstatt derartiger sinnbefreiter Technikspielereien mit MXM-Modulen würde ich mir wünschen, dass im Notobook-Bereich endlich ein produktübergreifender Standard geschaffen würde, der ein einfaches Upgrade der Grafikmodule erlaubt. :]


Neee das ist die IDEE *chatt*

Ich kaufe mir eine 3870/3850 ist ja der gleiche chip.
Mir langt vorerst die Leitsung. Munter schnetlze ich horden von Gegnern nieder. Doch dann Kommt Kriese 2 in die regale. Jetzt kaufe ich mir ein günstiges MXM Modul und stecke es huckepack auf und schon habe ich doppelte grakaleistung.

mit den neuen treibern skaliert crysis jetzt wenn man CF aktiviert.

Aber anstatt 2 Karten zu kaufen, kaufe ich eine und ein kleines MXM modul. Das ganze ist noch variabel. ich kann die karte nackt einsetzen für einen htpc, oder mit upgrade modul für den spiele pc.
das spaart auch ressourcen, ich brauche keine 2 riesen platinen.

ich finde das sehr sinvoll

noch besser:
die basiskarte ist eine 3860. Diese kann ich dann mittels 2er 3850er module aufrüsten.
im idle rechnet nur die 3860, und nur im 3d die 3850er.

bei meinem CF gespann bleibt im 2d auch eine karte kalt.
erinnert ihr euch voodoo rush, die gab es auch als upgradeplatine.

lg
uncle
 
Zurück
Oben Unten