News NVIDIA launcht GeForce GTX 580

Dr@

Grand Admiral Special
Mitglied seit
19.05.2009
Beiträge
12.791
Renomée
4.066
Standort
Baden-Württemberg
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
<div class="newsfloatleft"><a href="http://www.planet3dnow.de/photoplog/index.php?n=10924"><img src="http://www.planet3dnow.de/photoplog/file.php?n=10924" border="0" alt="GeForce Logo"></a></div>NVIDIA launcht heute mit der GeForce GTX 580 bereits 7 Monate nach dem Marktstart seiner ersten DirectX-11-fähigen GPU den Nachfolger. Die neue High-End-Grafikkarte basiert auf der 3 Mrd. Transistoren schweren und 520 mm² großen GPU GF110, die der überarbeitete und optimierte Nachfolger des GF100 ist. Es handelt sich also beim GF110 um keine völlige Neuentwicklung. NVIDIA will sich stattdessen sämtliche Blöcke der GPU vorgenommen und vor allem auf der Transistorebene (Transistoren mit geringeren Leckströmen) und bei den Timings der einzelnen Funktionseinheiten stark optimiert haben. Herausgekommen ist ein Chip, der möglichst alle Schwächen des Vorgängers ausmerzen soll. Gegenüber der GeForce GTX 480 sind nun endlich sämtliche PolyMorph Engines und damit CUDA-Cores aktiviert. Dies soll zusammen mit den verbesserten Textureinheiten (full speed FP16) und höheren Taktraten für einen ordentlichen Performanceschub sorgen, ohne die Leistungsaufnahme weiter zu erhöhen. Genau genommen soll diese sogar leicht sinken. Dies gilt auch für den Idle-Betrieb, in dem die neuen Grafikkarten ca.31W verbrauchen und damit 20W weniger als der Vorgänger. Zudem will man auch den Verbrauch bei der Nutzung von mehreren Monitoren gleicher Auflösung und Bildwiederholrate reduziert haben.<p style="clear:left;">
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11686"><img src="http://www.planet3dnow.de/photoplog/images/54308/1_GTX480vsGTX580.png" border="1" alt="NVIDIA GeForce GTX 580"></a></center>

Damit die noch immer ziemlich hohen 244 Watt TDP auch bei angenehmer Geräuschkulisse weggekühlt werden können, entschied sich NVIDIA für eine wesentlich aufwändigere Kühllösung. Der verwendete Kühlkörper setzt auf ein Vapor Chamber, was der grüne Grafikgigant mit einem nicht näher benannten Partner speziell für diese Anwendung entwickelt hat. Durch diese Technologie soll die Wärme wesentlich schneller von der GPU abgeführt werden. Es handelt sich hierbei um keine völlig neue Technologie, sie wird aber erstmals in einem Referenz-Design einer NVIDIA-GeForce-Grafikkarte verwendet. Damit soll das nervige, viel zu laute Lüftergeräusch des Vorgängers der Vergangenheit angehören. Das Unternehmen verspricht einen leiseren Betrieb unter Last als bei der GeForce GTX 285. Um die Hardware vor dem Überhitzen und daraus resultierenden Schäden zu schützen, werden auf dem Board Mikrocontroller zur Überwachung der Stromversorgung verbaut. Wenn der Grafiktreiber den Start beispielsweise eines "Power-Virus" wie Furmark detektiert, wird die Taktfrequenz der GPU heruntergeregelt, sobald ein Verlassen der technischen Spezifikationen von den Mikrocontrollern gemeldet wird. Diese Kombination aus Software und Hardware soll sicherstellen, dass das Übertakten der Grafikkarte auch weiterhin problemlos möglich ist.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11687"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-16.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11688"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-08.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11689"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-09.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11690"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-10.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11692"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-11.png" border="1" alt="NVIDIA GeForce GTX 580"></a></center>

Auch wenn man zum Start wohl nur an handverlesene Hardwareseiten Samples verschickt hat, verspricht NVIDIA einen so genannten Hard Lauch. Es sollen also bereits heute NVIDIA GeForce GTX 580 in allen wichtigen Märkten breit verfügbar sein. In Europa liegt die aktuelle Preisvorstellung von NVIDIA bei 479 Euro. Die verhältnismäßig geringe Anzahl an Samples wird mit der beabsichtigten möglichst großen Geheimhaltung erklärt. In den kommenden Wochen sollen weitere Modelle der GeForce-500-Familie folgen. NVIDIA spricht sogar von einem vollständigen Line-up. Außerdem gab man zu Protokoll, dass man mit diesem Launch wieder voll im Zeitplan liege, was durchaus als Kampfansage an die Konkurrenz aus dem Hause AMD gewertet werden darf.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11691"><img src="http://www.planet3dnow.de/photoplog/file.php?n=11691&w=l" border="1" alt="NVIDIA GeForce GTX 580"></a></center>

<b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288709966">NVIDIA Inspector Tool 1.94</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1286802021">NVIDIA präsentiert GeForce GT 430</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288086943">Nvidia GeForce 260.99 WHQL Desktop- und Notebook-Grafiktreiber</a></li></ul>
 
Hi,

habe ein kleines logisches Problem. Obwohl der 580 die volle Ausbaustufe des 480 darstellt ist der Die kleiner geworden. Am Fertigungsverfahren kann es ja nicht liegen, oder hat Nvidia einen komplett neuen Kern entworfen ?

greetz roost
 
Wenn man sich die ersten Reviews anschaut, dann hat AMD in Sachen Leistungskrone doch ganz schön was zu beißen. Man darf gespannt sein, wie gut AMD mit dem Cayman dagegen halten kann. Wenn es dann noch in diesem Jahr eine aufgebohrte GeForce 460 als 560 geben sollte, dann dürfte es für AMD nicht einfacher werden. Mit der Radeon 6850/70 hat man die Karten bereits auf den Tisch gelegt, und wirklich überzeugen tun sie nicht, vor allem bei AMDs neuen Filtertricks.
 
Angeblich ist es ein optimierter GF100. Es wurden also ein paar Sachen geändert und dabei auch Transistoren eingespart. Nun heißt er GF110.

Die Kampfansage an AMD finde ich gut - ist gut für die Preise :-)
 
Schon interessant zu sehen wie Fermi eigentlich von Anfang an her gedacht war... so ganz freiwillig war die Einbremsung damals ja nicht.

Interessant auch, dass die GTX 580 in etwas gleichaufliegt mit der Radeon 5970 (Performance -, Stromverbrauch o, Lautstärke +). Aber natürlich hat sie einen deutlichen Vorteil, dass sie als Single-GPU-Karte nicht das Problem mit den Micro-Rucklern hat.
Dennoch hat AMD dadurch wenigstens ein bisschen was dagegenzusetzen, auch wenn es mit einer Dual-GPU suboptimal ist.
 
Ich darf mal lachen? Abgesehen davon, daß es zweifellos eine schöne Karte ist, ist doch die Aussage bezüglich des Zeitplans ein Witz. Was jetzt kommt, ist doch im Ergebnis das, was die 480 sein sollte. Falls sich noch jemand erinnert... damals, als Enrico Fermi 1938... naja jedenfalls gefühlt ;p um die Zeit herum ;D

Aber gut für die Preise und den technischen Fortschritt ist die wiedererstarkte Konkurrenz jedenfalls.
 
Das die verbesserte video engine des gf104 fehlt hätte man noch erwähnen können. Es ist schlussendlich nichts weiter als ein gf100 in voll ausbau und mit ohne horrenden leckströmen.

Ich schätze es dürfte für AMD kein unlösbares problem sein mit der 6970 gleich zu ziehen.Und wenn nicht, auch egal. Sind ja auch nicht durch die bank 20% mehrleistung im vergleich zur 480. Das performance slide von nvidia ist ja wie üblich fürn arsch. Da nehme ich doch eher die zahlen die heise pubiliziert hat. Da sind zwischen der 580 und 5870 seltsamerweise keine 80% sondern derer nur 23%...
 
Ist eigentlich genau das, was man erwartet hat. Darum reißt mich das Ganze jetzt nicht gerade vom Hocker. Allerdings bin ich nun noch gespannter auf die Antwort seitens AMD. Da wird sich wohl zeigen wie weit voraus der fermi wirklich war.
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?

Ansonsten könnten das die Tage gute Zeiten für nen Graka-Neukauf werden. Vor gut 4 Wochen habe ich noch mit der 5830 geliebäugelt. Mittlerweile bekommt man für n paar €s mehr ne 5850. Und selbst die 5870 kostet keine Unsummen mehr. Wenn ich nun sehe, daß die 580 schon für 430€ zu haben ist und AMD da deutlich drunter bleiben sollte/muß (gehe nicht davon aus, daß die 6970 die 580 knackt), dann könnte das was werden, die 5870 gibts ja schon jetzt ab 249€. Ne 5850 für 170€, da wäre ich bei *Händereib*
 
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?


Die Erweiterungen die man für Tesla brauchte die aber auch bei der GTX480 schon nicht benutzt wurden wurden entfernt es gab noch einige Funktionseinheiten die der Tesla beim berechnen von CUDA Code helfen sollten sind ca 200mio Transistoren rausgeflogen ;) dadurch wurde der Chip natürlich auch etwas kleiner so das eigentlich mehr Chips auf einen Wafer passen sollten. Bei der Gf 100 im Ursprungsdesign handelt es sich ja um eine Entwicklung für Großcomputer und nicht für den Grafikmarkt die Verwendung als Geforce wahr ja ehr dual use... die GF110 ist jetzt auf den Grafikbereich Optimiert.
 
Zuletzt bearbeitet:
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?

Dann solltest du die News noch mal genau studieren. ;)

Die Erweiterungen die man für Tesla brauchte die aber auch bei der GTX480 schon nicht benutzt wurden wurden entfernt es gab noch einige Funktionseinheiten die der Tesla beim berechnen von CUDA Code helfen sollten sind ca 200mio Transistoren rausgeflogen ;) dadurch wurde der Chip natürlich auch etwas kleiner so das eigentlich mehr Chips auf einen Wafer passen sollten. Bei der Gf 100 im Ursprungsdesign handelt es sich ja um eine Entwicklung für Großcomputer und nicht für den Grafikmarkt die Verwendung als Geforce wahr ja ehr dual use... die GF110 ist jetzt auf den Grafikbereich Optimiert...
Gibt es dazu ne Quelle?

Davon habe ich offiziell nichts gehört. ECC ist z.B. noch drin.
Was soll denn genau rausgeflogen sein?


@ Fusseltuch

Da hast du natürlich Recht! Das habe ich im Eifer des Gefechtes vergessen. In der Hinsicht hat sich nichts verändert. --> HD Streams werden nicht mit voller Qualität übertragen.
 
Nightshift schrieb:
Schon interessant zu sehen wie Fermi eigentlich von Anfang an her gedacht war... so ganz freiwillig war die Einbremsung damals ja nicht.

Interessant auch, dass die GTX 580 in etwas gleichaufliegt mit der Radeon 5970 (Performance -, Stromverbrauch o, Lautstärke +). Aber natürlich hat sie einen deutlichen Vorteil, dass sie als Single-GPU-Karte nicht das Problem mit den Micro-Rucklern hat.
Dennoch hat AMD dadurch wenigstens ein bisschen was dagegenzusetzen, auch wenn es mit einer Dual-GPU suboptimal ist.

Hi..

Bei Launch der 5970 hieß es von AMD dass man noch eine Art Plan B hätte wenn der Fermi doch etwas performanter wäre als sich dann herausgestellt hat. Ich nehme an, die Radeon 5970 ist eine gedrosselte wenig selektierte Variante zweier Radeon 5870, die man ebenfalls im Takt des Speichers etwas gebremst hat.

Soll heissen - 2 Dies auf einem PCB bieten für Enthusiasten noch ein enormes Übertaktungspotenzial - mehr als das mit einem einzigen Die möglich ist, da sich die Taktraten von zwei Karten addieren. Ich sehe Microruckler nicht als Nachteil/Vorteil. Im Crossfire Thread hier im Forum wurde dazu ja schon zu Genüge eingegangen. Ich halte das mehr für einen Masche einiger Hardwareseiten die mit polarisierenden News und Tests möglichst viele Klicks auf ihrer Seite ziehen wollen - und es gibt ja genügende Fanboys in den jerweiligen Lagern die das dann zum Anlass nehmen ihren Senf dazuzugebengeben....Nach meiner Einschätzung kann man Microruckler durchaus provozieren - mit speziellen Einstellungen bei bestimmten Games - einen Vorteil gegenüber langsameren Single GPU-Lösungen haben die Dualkarten aber meiner Meinung nach schön.
UNd ich nehme wiegesagt an, dass die Performance der Radeon 5970 bei durchaus möglichen Chiptakt: 2x 850MHz, Speichertakt: 2x 1200MHz •
http://geizhals.at/deutschland/a564968.html im Vergleich zu den Original Chiptakt: 2x 725MHz, Speichertakt: 2x 1000MHz - bzw. bei den 2x 1000 Mhz Chiptakt die Übertakter normalerweise anstreben bei Addierung von zwei Karten einen ganz gewaltigen Performanceschub im Vergleich zum Original liefern...Da wird wahrscheinlich auch eine GTX 580 ans Limit übertaktet bei weitem nicht mehr mitkommen, weil bei idealer Skalierung dass ja alleine knapp 30% *2 an Chiptaktplus sind...
Die Problematik bei Dualkarten sehe ich eher bei der Treiberunterstützung, bzw. den Profilen - andererseits ist es eigentlich auch ziemlich egal.
Zu Weihnachten wirds dann interessant wenn der Cayman als Single Chip Version anrückt - die zukünftigen Dualkarten von AMD werden ja vermutlich auf Basis des "Barts" gefertigt - der ja Pinkompatibel zur Radeon 5870 ist - und da erwarte ich nun nicht unbedingt eine wesentliche Verbesserung zur Radeon 5970 was die pure Spieleleistung angeht. Anderseits könnte auch eine in Takt reduzierte Dualkarte auf Cayman Basis in Entwicklung sein - ich glaubs aber eher nicht..
GTX 580 hat nach meiner Einschätzung aber aktuell durchaus Konkurrenz mit der Radeon 5970
 
Zuletzt bearbeitet:
. Mit der Radeon 6850/70 hat man die Karten bereits auf den Tisch gelegt, und wirklich überzeugen tun sie nicht, vor allem bei AMDs neuen Filtertricks.

Das ist die Mittelklasse! Also nicht High-End Klasse. Vorsicht
.
EDIT :
.

ich denke das AMD die Verzögerung der HD69XX absichtlich machen, um zu sehen wie die GTX580 ist. Die HD69xx soll ja mit der 4D Shader Architektur kommen und ich denke das sich das auf den Stromverbrauch Positiv auswirken wird.
 
der Verbrauch ist doch völlig egal.
Hauptsache das Teil ist schnell und man derzeitige Games auf "ABSOLUTEXTRAMEGA FULL DETAILS" spielen.
 
So wirklich haut mich jetzt die Leistung der GTX580 nicht vom Hocker.
Gerade mal max. 40% schneller als eine HD5870.

Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?
 
So wirklich haut mich jetzt die Leistung der GTX580 nicht vom Hocker.
Gerade mal max. 40% schneller als eine HD5870.

Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?

nope, sehe ich zumindest genauso. Die 580 ist das was man eigentlich ursprünglich von Fermi erwartet hatte. NV verlangt für diesen "Refresh" wieder mal einen premium Preis (was ich persönlich ueberhaupt nicht einsehe - man hätte die 480 mit dem Release der 580 komplett einstampfen sollen). AMD hatte genügend Zeit um 5000er Serie gründlichst aufzupolieren, und das zeigen auch die recht gut gemachten 6800er Karten. Sollte AMD mit der 6900er in den meisten Benchies vorne liegen, und das erwarte ich, dann kommt nach langer Zeit wieder eine Radeon als Hauptkarte in Gehäuse. :)
 
Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?
die vorab im netz kursierenden benches der gf580 waren ja relativ akkurat. wenn die ebenso geleakten performance-daten zu den caymans ähnlich zutreffend sind, dann wird es für amd schwierig, die leistungskrone zurückzuerobern.

http://www.planet3dnow.de/vbulletin/showthread.php?t=387078

es ist noch gar nicht so lange her, da hatten viele nvidia ob der fermi-verspätung quasi beerdigt, hatte amd doch einen super großen vorsprung. von diesem vorsprung scheint inzwischen nicht mehr viel übrig zu sein.

NV verlangt für diesen "Refresh" wieder mal einen premium Preis (was ich persönlich ueberhaupt nicht einsehe - man hätte die 480 mit dem Release der 580 komplett einstampfen sollen).
warum auch nicht. wird ja niemand zum kauf gezwungen. und das ist mit sicherheit sinnvoller als amd's rumgeeiere beim launch der 58xx karten. erst billig anbieten, dann nicht liefern können und anschließend die preise anziehen. :]

AMD hatte genügend Zeit um 5000er Serie gründlichst aufzupolieren, und das zeigen auch die recht gut gemachten 6800er Karten.
technisch will ich das gar nicht mal so sehr bewerten, obwohl mich leistung und leistungsaufnahme nicht so recht vom hocker hauen, angesichts von amd's preisgestaltung sind die karten sicher für viele interessant. aber man kann ja wohl nicht darüber hinwegsehen, dass der launch für amd wieder mal komplett in die hose gegangen ist. vielerorts kritik an der namensgebung ... was aber noch schlimmer ist, dürften die neuerlichen "filtertricks" sein, mit denen amd aktuell negativ-schlagzeilen erntet.

und wie schon hier im thread angesprochen, bei amd wissen wir in sachen mittelklasse mit der 68xx serie, woran wir in der nächsten zeit sind. sollte nvidias geforce 460/470 refresh ähnlich gut gelingen wie im falle der 580, dann wird amd es in der mittelklasse schwer haben.

und so ist amd innerhalb eines jahres wieder von nvidia eingeholt worden. kaum zu glauben, wo amd doch einen so großen vorsprung hatte.
 
es ist noch gar nicht so lange her, da hatten viele nvidia ob der fermi-verspätung quasi beerdigt, hatte amd doch einen super großen vorsprung. von diesem vorsprung scheint inzwischen nicht mehr viel übrig zu sein.

Das ist doch in der Branche Standard. Andere Leute hatten AMD schon nach der HD2xxx beerdigt, da dort NVidia mit den GF8xxx weit vorn lagen. Das Wechselspiel kennen wir doch inzwischen.

Das es immer wieder Leute gibt die übertreiben und denken eine Firma wie AMD oder NV geht an einer nicht so guten Kartengeneration zu Grunde, ist auch bekannt.

Same procedure as every year...
 
Die kommt ja sprichwörtlich pünktlich zum Weihnachtsgeschäft! *greater*
Mal sehen ob ich eine abbekomme!
Die kann zumindest mal mein GTX285 SLi bei den 3DMark Vantage GPU Punkte schlagen (als Single Karte!)
Hier ein SLi Review @ Guru3D: http://www.guru3d.com/article/geforce-gtx-580-sli-review/

MfG
 
@ mariahellwig
...weil die Masse damit auskommt? *buck*
(+ein HMDI Port ist zumindest auch dabei, bei der GTX580)
 
es ist noch gar nicht so lange her, da hatten viele nvidia ob der fermi-verspätung quasi beerdigt, hatte amd doch einen super großen vorsprung. von diesem vorsprung scheint inzwischen nicht mehr viel übrig zu sein.

...

und so ist amd innerhalb eines jahres wieder von nvidia eingeholt worden. kaum zu glauben, wo amd doch einen so großen vorsprung hatte.

Sehe ich ähnlich. Lag allerdings nicht daran das AMD so gut, sondern das nVidia von der Rolle war. War aber auch klar das sie irgendwann wieder in die Spur kommen. Fermi war nicht schlecht, hatte eben nur ein paar Unzulänglichkeiten. Die hat man nun abgestellt.

Letztlich muss man AMD großen Respekt zollen. Sie leisten unglaubliches. Sie kämpfen an 2 Fronten und jeder der beiden Gegner ist größer als AMD.

@Windhund
Ein DisplayPort sollte schon drin sein. Und, die Masse braucht auch keine GTX 580
 
Zuletzt bearbeitet:
Die Erweiterungen die man für Tesla brauchte die aber auch bei der GTX480 schon nicht benutzt wurden wurden entfernt es gab noch einige Funktionseinheiten die der Tesla beim berechnen von CUDA Code helfen sollten sind ca 200mio Transistoren rausgeflogen ;) dadurch wurde der Chip natürlich auch etwas kleiner so das eigentlich mehr Chips auf einen Wafer passen sollten. Bei der Gf 100 im Ursprungsdesign handelt es sich ja um eine Entwicklung für Großcomputer und nicht für den Grafikmarkt die Verwendung als Geforce wahr ja ehr dual use... die GF110 ist jetzt auf den Grafikbereich Optimiert.

Andernorts nennt man dies einfach "Ballast abwerfen..."
 
Zurück
Oben Unten