NVIDIA CEO kritisiert Dual-GPU-Grafikkarten

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Dabei ist die Kritik natürlich nicht in Richtung der hauseigenen GeForce 9800 GX2 gerichtet, sondern gegen die ATI Radeon HD 3870 X2 des Konkurrenten AMD.

Problematisch sei nicht der generelle Einsatz zweier GPUs auf einer Grafikkarte, sondern nur dann, wenn das dabei entstehende Produkt nicht in das absolutes High-End-Segment einzuordnen wäre. Die ATI Radeon HD 3870 X2 hält er entsprechend nicht für ein solches Produkt, da diese zwar im Schnitt vor der GeForce 8800 Ultra, dem schnellsten aus dem Hause NVIDIA liegt, jedoch in einigen Test immernoch geschlagen wird.

<ul><i>“We would do an [ATI Radeon HD 3870] X2-like product only if it delivers performance that is simply not possible anywhere with a single GPU. But there’s no question that a single GPU is a better approach. […] So you know my preference and you know we have a lot of evidence and certainly know for sure that a single GPU is the best approach, but if a double GPU can deliver the highest performance on the planet, it would be accepted,”</i></ul>Die Akzeptanz solcher Grafikkarten, die besonders durch einen sehr hohen Stromverbrauch und eine meist hohe Lautstärke auffallen, sei nicht gegeben, so Jen-Hsun Huang. Stimme jedoch die Leistung, so würden solche Einschränkungen in Kauf genommen.

<ul><i>“If you want to put two GPUs on an add-in card and you deliver the absolute highest performance in the world, the enthusiast that uses that particular PC will certainly tolerate the fact that it’s a much larger solution. But if it’s not the highest performance solution in the world, as in the case of the X2, then it’s just really problematic. You know, there’s no market really for a product that’s larger, louder, and not as high performance. So, I think that GeForce 8800 GTX is still absolutely the best DX10 and highest graphics performance GPU in the world,”</i></ul>Unberechtigt ist diese Kritik natürlich nicht, so haben Dual-GPU-Grafikkarten meist erhebliche Geschwindigkeitsprobleme in neusten Spielen, für die keine Profile im Treiber hinterlegt sind. Das war auch einer der Gründe, warum sich NVIDIAs letzte Dual-GPU-Grafikkarte, die 7950 GX2 nicht gut gegen die GeForce 7900 GTX oder die Radeon X1950XTX in Szene setzen konnte. Die Radeon HD 3870 X2 stößt jedoch weder in ihrer Größe, sie ist sogar kompakter als die 8800 Ultra, noch beim Leistungshunger, die Radeon HD 2900XT oder auch die 8800 Ultra liegen nur wenig hinter ihr, in völlig neue Region vor.

<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20080213225346_Head_of_Nvidia_Criticizes_Dual_GPU_Approach_as_Dual_GPU_GeForce_9800_GX2_Looms.html" target="_blank">Head of Nvidia Criticizes Dual-GPU Approach as Dual-GPU GeForce 9800 GX2 Looms</a>

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202904641">NVIDIA GeForce 9800GX2 sogar zurückgezogen?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201526320">AMD stellt ATI Radeon HD 3870 X2 vor</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/partner_preistrend/p3dclicks.pl?suchen.php?q=Radeon+HD+3870+X2&s=0&a=&z=&x=0&y=0" TARGET="_blank">ATI Radeon 3870 X2 Preisvergleich</a></li></ul>
 
einfach nur peinlich NV, kriegen ihre eigenen Dual-Karten nicht ordentlich auf die Reihe und sind ob der entrissenen Performancekrone einfach nur sauer.
Strom braucht die Karte im Vergleich zur Leistung/Verbrauch einer Ultra auch nicht wirklich mehr, dafür bietet sie ja auch eben mehr Leistung. Das passt also auch.
Die sehen echt ihre Felle davonschwimmen*lol*
 
Jetzt wo die GeForce 9800 GX2 nicht tut, mal die ati X2 kritisieren.
Ja was denkt der nette Herr denn eine 8800 Ultra braucht statt Strom luft und Liebe....?

Wenn die 3870 X2 schneller ist als eine 8800 Ultra und die 8800 Ultra ist high end. Was ist dann die 3870 X2. Low End?

Tja Nvidia halt....
Genauso sind sie mit STG umgesprungen (Kyro / Kyro2)...
 
nVidia und 9800 X2, Äusserungen = peinlich, setzen, 6 !!! 8)
 
Langsam glaube ich die Gerüchte, dass eine AMD / nVidia Fusion daran gescheiter ist, weil der Type Oberchef werden wollte ... was der an heißer Luft fabriziert ...

ciao

Alex
 
Langsam glaube ich die Gerüchte, dass eine AMD / nVidia Fusion daran gescheiter ist, weil der Type Oberchef werden wollte ... was der an heißer Luft fabriziert ...

der pustet mit der 9800 um die wette
 
aähhhhhhhhh

kommt da NV in schwitzen oder ihre ich mich???
die aussage von NV ist so was von peinlich!!!
 
NOFX hat ja schon ganz richtig gesagt, dass die grundsätzlichen Aussagen zu dual-GPU Lösungen völlig richtig sind. Genau aus diesen Gründen lege ich mir, solange es leistungsmäßig akzeptable single-GPU Lösungen gibt, weder SLI noch CF zu, egal ob auf einer Karte oder auf zwei.......

Ob man nun speziell die X2 so kritisieren muss, ist sicher eine andere Frage. Aber mal ehrlich, was für eine Antwort habt ihr denn erwartet, wenn der Firmenchef zum Konkurrenzprodukt befragt wird? Wenn nV die Leistung der besten single-GPU-Karte von Ati nur erreichen würde, indem es ein SLI-Produkt hinstellt, würden alle nV bashen. Jetzt wo Ati das so macht, ists super, dass Ati die unangefochtene Leistungskrone hat......:]
 
ach kommt, amd/ati ist in der hinsicht auch nicht besser. die reden auch immer die anderen schlecht obwohls meistens genau so peinlich ist.

trotzdem ganz schön peinliches statement das ja auch auf nvidia sli systeme abzuleiten wäre. also wer so eins hat: der nvidia chef findets unnütz ;D
 
DASS ist so was von einem genial gelungenem Eigentor, die Wahl zum Tor des Jahrhunderts ist quasi abonniert.
 
Liegt es daran, das ATI so langsam wieder als ernsthafter Konkurrent für Nvidia gesehen wird?

Werde mir wohl nie eine Dual-GPU kaufen, aber das ist eine peinliche Vorstellung für Nvidia
 
Wird wohl Zeit das Nvidia sich mal anstrengt.
55nm, weniger Strombedarf/Chip, DX10.1, mehr Taktfrequenz, DDR4 , ... . Alles Dinge wo Nvidia langsam mal los machen sollte.
Wenn ATI ihre Treiber weiter so schnell weiter entwickelt wird es nicht lange dauern bis ATI auch noch die Preformance aus ihren Karten holt. Die Hardware ist da.

Ich finde die Dual Core Varainte nicht schlecht, wenn man so schnell eine doch erhebliche Leistung raus holen kann. Und Was Strombedarf bei der ATI angeht ist das doch schon erheblich weniger /Chip. Die Zeit wird es zeigen.
 
Wie die anderen gesagt haben wird Zeit das sich Nvidia nach 1,5 Jahren was neues einfallen lässt :)
 
NVIDIA CEO kritisiert Dual-GPU-Grafikkarten der Konkurrenz, weil sein Laden die eigene Dual-GPU-Karte nicht auf die Reihe kriegt - was ich gelesen habe, wird die 9800GX2 zu heiß und skaliert offensichtlich überhaupt nicht brauchbar ... wie peinlich! Kann denn heute keiner mehr (wenigstens ein bißchen) in Würde und Respekt verlieren, anstatt so 'ne peinlich durchsichtig-dumme Schau abzuziehen? *nein*
 
Langsam glaube ich die Gerüchte, dass eine AMD / nVidia Fusion daran gescheiter ist, weil der Type Oberchef werden wollte ... was der an heißer Luft fabriziert ...
Das verstehst du miss ...

Für das AMD Management war Nvidias heisse Luft noch etwas zu kalt, so dass die theoretisch angedachte Fusion doch nicht zwischen AMD und Nvidia über die Bühne damals ging ... *lol*

MFG Bobo(2008 )
 
ach kommt, amd/ati ist in der hinsicht auch nicht besser. die reden auch immer die anderen schlecht obwohls meistens genau so peinlich ist.

trotzdem ganz schön peinliches statement das ja auch auf nvidia sli systeme abzuleiten wäre. also wer so eins hat: der nvidia chef findets unnütz ;D


Ich kann mich nicht erinnert das ATI so was mal zu NV gesagt hat. Evt. zu GF5 Zeiten, aber das war ja abartig mit dem Fön ;D
 
Ja warten wir mal ab, was in nächster Zeit noch so alles auf dem Grafikkartenmarkt erscheint. Es würde mich jedenfalls nicht wundern, wenn Nvidia längerfristig auch auf maximal mittelgroße Chips setzt, die für den kleinvolumigen High-End-Bereich mehrfach verbaut werden, das ist nun mal einfach ökonomisch sinnvoller.

Daß in dieser Industrie immer genau das verteufelt wird, was man selbst ein halbes Jahr später auf den Markt bringt, kennen wir ja wohl inzwischen.
 
Ha ha , ich sag nur Glashaus, ist wohl jemand verärgert, dass die GX2 Lösung nicht geklappt hat
 
Das liest sich doch gut!!!

Das beste Zeichen das ATI/AMD von Nvidia scheinbar wieder als Bedrohung empfunden wird.... Aber die Art und Weise ist schon peinlich.

Wahrscheinlich ist der CEO gerade in der Sandkasten-Selbstfindungsgruppe ;D
 
*rofl**rofl*
Das ist mal wieder ein Eigentor aller erster Güte von NV.
Erst bekommen die die Treiber für Nforce 4 nicht für Vista hin.
Dann schmeißen sie Nfocre 3 heimlich aus der Liste mit Vista kompatibler Chipsätze.
Dann wird der Stromverbrauch der Chipsätze lange nicht besser.
Zu aller Letzt schaffen sie es nicht eine gute dual GPU Lösung zu basteln.
Wohin soll das enden?

AMD macht zwar auch nicht alles richtig, aber das was sie anpacken macht wenigstens eine bessere Figur zur Zeit als das von NV meiner Meinung nach.
 
*rofl**rofl*
Das ist mal wieder ein Eigentor aller erster Güte von NV.
Erst bekommen die die Treiber für Nforce 4 nicht für Vista hin.
Dann schmeißen sie Nfocre 3 heimlich aus der Liste mit Vista kompatibler Chipsätze.
Dann wird der Stromverbrauch der Chipsätze lange nicht besser.
Zu aller Letzt schaffen sie es nicht eine gute dual GPU Lösung zu basteln.
Wohin soll das enden?

AMD macht zwar auch nicht alles richtig, aber das was sie anpacken macht wenigstens eine bessere Figur zur Zeit als das von NV meiner Meinung nach.

Hmm, ich betreibe einen nF4 unter vista-64 eigentlich relativ problemfrei........;)

Wenn man bedenkt, wie lange es den G80 nun schon gibt, und dass er immer noch die schnellste GPU ist, kann nV auch nicht alles verkehrt gemacht haben in letzter Zeit. Das einzige, was sie innerhalb der nächsten drei bis sechs Monate nachlegen müssten wäre eine single-GPU mit noch mehr Leistung als die G80, dann wäre absolut alles weiterhin in Butter für nV.......
 
Hmm, ich betreibe einen nF4 unter vista-64 eigentlich relativ problemfrei........;)

Wenn man bedenkt, wie lange es den G80 nun schon gibt, und dass er immer noch die schnellste GPU ist, kann nV auch nicht alles verkehrt gemacht haben in letzter Zeit. Das einzige, was sie innerhalb der nächsten drei bis sechs Monate nachlegen müssten wäre eine single-GPU mit noch mehr Leistung als die G80, dann wäre absolut alles weiterhin in Butter für nV.......

Neija. Wieso hat es dann nicht bei mir funktioniert?
Lag wohl an den schlechten Treibern im März 07. Das bis dahin kein Sata Treiber gab der richtig ging fand nicht nur ich raus. Das Forum auf der NV Seite war voll mit Leuten die sich beschwerten und wie so sonst sollte ein Bastler versucht haben einen Version zu finden die wirklich gut unter Vista 64 läuft? Ich bin von NV zu AMD gewechselt und es hat sofort funktioniert. Komisch nicht. Auch die GPUS wurden lange Zeit unter Vista nicht richtig supportet und das auch bei NV. ATI hatte schneller nachgebessert als NV. Mein erster Vista ATI Treiber war wirklich Grundsolide, wenn auch kein über Ding, aber es lief.

Nur mal so viel dazu.
 
Zuletzt bearbeitet:
Lag wohl an den schlechten Treibern im März 08.

Nur mal so viel dazu.

@The_crow

Erzähl mal: Gibt es im März die B3-Steppings vom Phenom ???

Wenn es schon mit den Treibern schlecht aussehen wird muß es doch wenigstens eine gute Nachricht geben ;D
 
@The_crow

Erzähl mal: Gibt es im März die B3-Steppings vom Phenom ???

Wenn es schon mit den Treibern schlecht aussehen wird muß es doch wenigstens eine gute Nachricht geben ;D

*lol* Ich habe einfach satt 07 08 geschrieben mehr nicht.
War mein Fehler! Sorry!
 
Zurück
Oben Unten