GT300 Spekulationsthread

@ Cordelier

Der RV870 im vergleicht wäre noch interessant.
 
Sehr schön das mit den 104 GF100 wusste ich, das gt200 sogar größer ist war mir so nicht klar.
Der Vergleich zum Atom war sehr schön, so optisch.
Tolles Tool hatte das zwar schon mal gesehen, mich aber nie damit beschäftigt RV870 hätte ich auch schön gefunden als Vergleich.
 
Wie schon länger von mir vermutet, soll Fermi anscheinend noch stärker beschnittenen Varianten von Fermi geben, vermutlich weil einfach das Yield von Fermi so grottenschlecht ist, und damit zu viele nur teilweise funktionierende Dice entstehen, die nun auch einer Weiterverwendung zugeführt werden: http://www.hardware-infos.com/news.php?news=3534

Als GTX460 soll nun angeblich der Fermi in folgender Version Verwendung finden:
- nur 384 Cores (statt 512, was 75% entspricht)
- nur 256bit-Bus (statt 384, was 67% entspricht)

Eine solche GTX460 dürfte deutlich unter einer HD5850 zu liegen kommen, was deren Preis entsprechend niedrig machen wird, wohl kaum über $200.

Dass Nvidia mit Fermi kaum Geld verdienen kann, wenn sie diese teuren Monster-Fermis für günstige $200-Grakas einsetzen müsse, liegt wohl auf der Hand.

Wie sich aber die Energieaufnahme dieser GTX460 verhalten wird, ist noch nicht bekannt. Wird Nvidia die Takte hoch ansetzen, wird womöglich eine solche GTX460 gar die doppelte Energie einer HD5850 aufnehmen. Oder Nvidia wählt niedrige Takte, um mit der Energieaufnahme runter zu kommen, aber mit der Gefahr, dass man dann womöglich gar nur noch HD5770-Niveau hat? Ob sich aber so eine GTX460 überhaupt für $200 verkaufen läßt ist wohl sehr fraglich.

Meiner Meinung nach ist die Fermi-Architektur schon gescheitert: der Ansatz ist zu schwach und viel zu ineffizient (von Diesize her als auch Energieaufnahme). Fermi hat meiner Meinung nach keine Zukunft und kaum Chancen. Für Notebooks ist Fermi wohl kaum sinnvoll zu realisieren. Meiner Meinung nach wird es vermutlich auch keinen GT104-Fermi geben. Womöglich einen ganz kleinen GT108, um wenigstens eine kleine DX11-GPU für Intel-based Produkte zu haben, aber mehr macht wohl kaum Sinn.

Meines Erachtens arbeitet Nvidia längst an einer ganz neuen Architektur und hat den Fermi schon komplett begraben. Vermutlich hat man bei Nvidia jegliche weiteren 40nm-Ansätze (bis auf einen möglichen Minimalst-Fermi "GT108") als auch die 28nm-Fermi-Ansätze verworfen und bastelt an einer neuen Architketur auf 28nm, von der vermutlich vor H2/2011 kaum was kommen dürfte. Von daher könnten womöglich in H2/2010 unerwartet große Wafer-Mengen in 40nm bei TSMC an ATI fallen, womit dann ATI dann seine HD6xxx fast konkurrenzlos in den Markt geben kann.

Gegen diese kommenden Southern-Islands hat Fermi ja noch weniger Chancen und Anfang 2011 kommen dann gar ATIs erste 28nm-Derivate, gegen die wohl auch ein 28nm-Fermi keine Chancen haben dürfte. Daher gibt es wohl nur eine Chance für Nvidia: einen ganz neuen Ansatz zu probieren...was aber keine Garantie auf Erfolg ist. Scheintert auch dieser, heißt es womöglich game-over für Nvidias GPU-Geschäft.

Eins ist wohl offenkundig: es wird eine bittere Dürre-Periode für Nvidia geben. Die große Frage dürfte sein: wie wird Nvidia diese überstehen und wird es für Nvidia irgendwann in 2011 wieder ein Comeback geben?
 
ATI hatte meiner Meinung nach mit dem r600 noch größere Probleme als Nvidia zur Zeit und man sieht, was aus ihm geworden ist.
rv670 -> eigentlich ganz gut
rv770 -> ATI spielt wieder oben mit
rv870 -> wow


Nvidia dürfte in der g80/g92 Ära viel Geld eingenommen haben -> Fermi kann sich prächtig entwickeln.
 
Also hier noch mal die GF100
gf100r52d.jpg


Dann die RV870 aka HD5870
58700c6x.jpg


Und hier mal eine RV830 aka HD5650/5670
5670ncl7.jpg

Dazu ein Foto eines entsprechenden Wafers
esnqfc.jpg


Verlässliche Angaben zur RV840 aka HD5750/5770 konnte ich bisher nicht finden.


Eins ist wohl offenkundig: es wird eine bittere Dürre-Periode für Nvidia geben. Die große Frage dürfte sein: wie wird Nvidia diese überstehen und wird es für Nvidia irgendwann in 2011 wieder ein Comeback geben?
Nvidia wird nächsten Monat mit hoher Wahrscheinlichkeit wieder mit guten Zahlen aufwarten können. Diese Runde endet mit einem Patt, TSMC sei Dank oder Schuld,Unvermögen oder Absicht, jedenfalls konnte AMD dadurch leider nicht viel an den bestehenden Verhältnissen ändern. AMD muß weg von TSMC und schnellstmöglich bei GF fertigen lassen.Ausserdem müssen sie ihre Plattform insgesamt attraktiver machen, es muß AMD zu denken geben das es dem größten Kunden HP vollkommen egal scheint welchen Chipsatz und welche Grafik in ihren Rechnern verbaut werden.

Vielleicht könnte man es demnächst mit einer neuen Variante von Hybrid-Crossfire versuchen, diesesmal in Verbindung mit Llano.Vielleicht hilft´s ja.
 
Nvidia wird nächsten Monat mit hoher Wahrscheinlichkeit wieder mit guten Zahlen aufwarten können. Diese Runde endet mit einem Patt, TSMC sei Dank oder Schuld,Unvermögen oder Absicht, jedenfalls konnte AMD dadurch leider nicht viel an den bestehenden Verhältnissen ändern.

Nun ja, so etwas schlägt nicht sofort durch. Aber mittelfristig wird das schon eine Dürreperiode bedeuten wenn nVidia nicht die Produktion hochgefahren bekommt. Letztlich entscheiden Stückzahlen.
 
@VlaDeZ

Das sehe ich nicht so ganz der R600 war zwar nicht die schnellste GPU, aber der Stromverbrauch war nicht so viel höher im Vergleich zu damaligen Konkurrenz, als wie aktuell beim Fermi. Das ist eben Brechstange oder Brute Force Methode.
Wobei die schnellste Grafikkarte wohl eh noch die 5970 ist ;)

Ob der Fermi genauso schlimm ist wird erst die Zeit zeigen, allerdings muss bis zum 28nm Prozess nv eine sehr lange zeit überbrücken.
Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.

Und dann kommen noch South Islands... vielleicht ist nv dann nicht mehr ganz so vorlaut ;D

Also was nun schlimmer war / wird ob R600 oder Fermi wird die Zeit zeigen, ich habe und würde mir jedenfalls niemals eine der beiden kaufen. Wahrscheinlich wird das Spiel von vorne beginnen und sich ATI/AMD nun etwas auf die Faule Haut legen, leider.

Intel (bzw. Mitarbeiter) hatte ja mal auch explizit den RV870 und nicht den Fermi gelobt, das war scheinbar wohl nicht Grundlos ;D
 
bbott schrieb:
Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.
Das sagte man bei rv670 --> rv770 auch.
150% mehr Ausführungseinheiten (SPUs; TMUs; ...) auf 33% mehr Fläche und 44% mehr Transistoren. 8)


bbott schrieb:
Intel (bzw. Mitarbeiter) hatte ja mal auch explizit den RV870 und nicht den Fermi gelobt, das war scheinbar wohl nicht Grundlos
Das habe ich wohl verpasst *suspect*
Link?


Edit.

selbst wenn Nvidia sowas wie ATI vollbringen kann, ein voll funktionstüchtiger Fermi, also alle 512 SP, und den gleichen Taktraten wie jetzt bei etwa 15 Watt weniger Stromverbrauch sollte mit einem B Stepping eigentlich "problemlos" möglich sein.
Wenn man dann auch noch schön selektiert wäre eine hypotetische GTX485 Ultra mit 780/1560/1000 sogar bei unter 300 Watt möglich *chatt*, die dann tatsächlich mit einer 5970 konkurrieren könnte.
 
Zuletzt bearbeitet:
Das sagte man bei rv670 --> rv770 auch.
150% mehr Ausführungseinheiten (SPUs; TMUs; ...) auf 33% mehr Fläche und 44% mehr Transistoren. 8)

Ausnahmen bestätigen die Regel, und die Regel Spiegelt der Refresh RV770 -> RV790 ab.
Selbst der G200 (65nm) -> G200(b) (55nm) war kleiner!

Der RV770 dürft enorm durch AMDs Fertigungs- Fähigkeiten Profitiert haben. Das war wohl die erste Frucht, dass AMD ATI aufgekauft hat.

Bei nv ist so etwas nicht zu erwarten, aber vielleicht vollbringt nv ein Wunder ;D
 
Das sagte man bei rv670 --> rv770 auch.
150% mehr Ausführungseinheiten (SPUs; TMUs; ...) auf 33% mehr Fläche und 44% mehr Transistoren. 8)...
...selbst wenn Nvidia sowas wie ATI vollbringen kann, ein voll funktionstüchtiger Fermi, also alle 512 SP, und den gleichen Taktraten wie jetzt bei etwa 15 Watt weniger Stromverbrauch sollte mit einem B Stepping eigentlich "problemlos" möglich sein.
Wenn man dann auch noch schön selektiert wäre eine hypotetische GTX485 Ultra mit 780/1560/1000 sogar bei unter 300 Watt möglich *chatt*, die dann tatsächlich mit einer 5970 konkurrieren könnte.

So wie RV770 ein "Refresh" des RV670 war, wird auch der kommende RV970 (40nm Southern Islands) von RV870 ein "Refresh" sein.

Ein solcher "Refresh" ist ein komplett überarbeitetes Desing. Dass man aber alleine mit einem neuen Stepping (B-Step von Fermi) so einen Sprung erreichen kann, ist wohl ziemlich utopisch.

AMD wird mit dem "Refresh" von RV870 -> RV970 im Herbst wohl den größeren Sprung machen, als Nvidia mit einem überarbeiteten Fermi-Stepping.

Somit wird sich der Abstand von HD6970 auf Fermit-B-Stepping wohl deutlich vergrößern statt verkleinern, vermutlich wird dann der kommende RV970 (HD6870) B-Fermi schon weit überholen. Fermi hat kaum eine Zukunft, es sei denn Nvidia gelingt ein Wunder.
 
Der kleine Radeonexkurs sollte doch nur ein Beispiel sein, dass Fermi keine Todgeburt sein muss. Nicht mehr und nicht weniger.
Dazu war der Vergleich mit dem rv670 und rv770 gedacht; dass soetwas keinem B Stepping entsrpicht sollte doch klar sein...


Das B Stepping habe ich eigentlich nur noch mit reingebracht, weil ich meinte, dass mannicht so pessimistisch denken sollte.
bbott schrieb:
Ein Refesh in 40nm wir auch nicht gravierend besser werden, entweder bei gleicher Leistung bei 20% weniger Stromverbrauch oder nochmals ca. 15% mehr Speed bei gleichem oder leicht höherem Stromverbrauch. Mehr ist idR bei einem Refresh im gleichem Prozess möglich. Auf jeden Fall sind beide Szenarien nicht berauschend.
 
Zuletzt bearbeitet:
Wie gut Fermi wirklich wird, wird sich halt bald zeigen.

Grundsätzlich sehe ich beim Fermi nicht so viel AusbesserungsPotential wie beim R600, wo sie beim RV670 mit diesesmal guter Fertigung (80nm war ja auch nicht gut, während 90nm-G80 gut war) und Entmisten (Ring-Bus) einiges Aufholen konnten.

Grundsätzlich hat benötigt Nvidia trotz immensen Stromverbrauch von +50% in Games immer noch um eine 0,15 Volt niedere Spannung.
Viel kann Nvidia nicht mehr runtergehen, während ATI da noch einige Reserven hat.

Dazu hat AMD momentan noch eine deutlich bessere Performance pro mm².

Eigentlich siehts mit Fermi IMO langfristig schlechter als R600 aus.

a) Seit R670 konnte AMD immer sehr schnell & Problemlos & nach Plan (Takt) einführen, während GT300 so wie GT200 verspätet und den Plan/Takt verfehlte und somit alte Probleme beibehalten hat.

b) Nvidia alle 3 Jahre große Architektur-Sprünge bringt, während ATI alle 1,5 Jahr halbe große Sprünge bringt und somit hätte Fermi ordentlich vorlegen müssen, weil bald North-Island kommt!!!!!!!!!!!

c) Monentan TSMC-40nm-Probleme und Sonder-Verträge für mainstream & Low-End sowie längsten Fermi-Balken noch die Lage halbwegs gut aussehen lässt.

Mit North-Island @ 28nm-GF bzw. Fermi @ 28nm können eben Punkt a) & b) & c) voll bemerkbar werden, da North-Island eben früh & problemlos eingeführt werden, und eben einen neue Architektur ist und mit GF wahrscheinlich keine Probleme gibt, während bei TSMC schon und der Vorsprung von ATI Low-End & Mainstream aufgrund des Shrink so groß sein kann, dass die Sonderverträge auch nichts mehr helfen, unter anderem weil Fermi @ 28nm wieder verspätet & vielleicht wieder den Takt oder Stromverbrauch nicht wie geplant erreicht.

PS: Ich denke, Fusion & Bulldozer wird in den Medien positiv überraschen, wo sich das aufstrebende Image auch positiv auf die Grafikkarten übertragen könnte.
Denn CPU & GPU & Chipsatz aus einer Hand hört sich umsointeressanter an, wenn sie jeweils die besten sind bzw. jeweils extrem Top-Produkte sind.
 
Zuletzt bearbeitet:
Ich lese immer öfters CPU und GPU aus einer Hand. Was bringt das? Läuft eine ATI GPU auf einem AMD-System besser als auf einem Intel-System? Ich denke nicht, schließlich muß die GPU/Karte nur die PCIE-Protokollspecs erfüllen, oder etwa nicht?
 
Ich lese immer öfters CPU und GPU aus einer Hand. Was bringt das?

Mir als Aktionär bringts Gewinn.

Läuft eine ATI GPU auf einem AMD-System besser als auf einem Intel-System?

Ganz sicher nicht.



Das tut mir echt leid für Dich!

schließlich muß die GPU/Karte nur die PCIE-Protokollspecs erfüllen, oder etwa nicht?

Doch doch, die ATI GPUs sind so hochwertig das sie grundsätzlich in den Systemen sauber laufen die entsprechend den Spezifikationen aufgebaut und betrieben sind.

Auch die AMD-CPUs sind so großartig, das die sogar mit Grafikkarten und Chipsätzen anderer Hersteller stabil laufen sofern das System sauber und entsprechend den Spezifikationen aufgebaut und betrieben wird. Absoluter Wahnsinn!
 
Was mir ja gerade durch den Kopf geschossen ist: Eigentlich könnte AMD schön brav weiter Kapazitäten von TSMC beauftragen, um die Pipeline für nV zu verstopfen und trotzdem zeitgleich bei GF produzieren lassen...

Ok, sowas müsste mal ein BWL'er durchrechnen, ob sich das kostenmäßig lohnt, aber ne Idee wärs ja ;D
 
Mir als Aktionär bringts Gewinn.



Ganz sicher nicht.




Das tut mir echt leid für Dich!
Mach dich nicht lächerlich! Bleib mal ernsthaft.

Doch doch, die ATI GPUs sind so hochwertig das sie grundsätzlich in den Systemen sauber laufen die entsprechend den Spezifikationen aufgebaut und betrieben sind.
Auch die AMD-CPUs sind so großartig, das die sogar mit Grafikkarten und Chipsätzen anderer Hersteller stabil laufen sofern das System sauber und entsprechend den Spezifikationen aufgebaut und betrieben wird. Absoluter Wahnsinn!
Was soll diese Ironie?!
 
@ Twodee

Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.

Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.
 
Was bringt das? - Diese Frage stellt ja nicht nur Twodee von P3D, sondern auch HP und gibt tagtäglich darauf eine Antwort, weil eben AMD darauf keine Antwort parat hat.

Das AMD Partner Programm "Fusion" kann nur auf den Verkauf abzielen,also kauf alles bei mir,kriegst es zusammen etwas billiger. Scheint aber auch nicht der Knüller zu sein.
 
@ Twodee

Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.

Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.

Bei Intel ist das auch einfach für die OEMs, aber AMD baut keine eigenen Mainboards, weshalb die OEMs so oder so auf mehrere Zulieferer angewiesen sind.
 
Ich lese immer öfters CPU und GPU aus einer Hand. Was bringt das? Läuft eine ATI GPU auf einem AMD-System besser als auf einem Intel-System? Ich denke nicht, schließlich muß die GPU/Karte nur die PCIE-Protokollspecs erfüllen, oder etwa nicht?
AMD kann den Treiber so für die Grafikkarte auslegen, dass tatsächlich die Stärken einer AMD-CPU vollständig ausgenutzt werden. Das mag angesichts der relativen CPU-Schwäche nicht so wichtig erscheinen ... aber wer weiss, wie die ATI-Treiber ohne AMD-Konzernmutter ausgesehen hätten?

Es gab in der Vergangenheit immer wieder Beispiele, dass zwar die Intel-Instruktionen vollständig ausgenutzt wurden, bzw. genau passend auf Intels Prozessoren rund liefen ... aber eben nicht auf AMD, Cyrix, VIA Prozessoren.

Es geht mithin eben doch darüber hinaus, als nur die exakte Einhaltung von Schnittstellenstandards ...

... wobei VIA einstmals doch über einen blinden Fleck in einer PCI-Spezifikation bei den Chipsätzen stolperte. Insbesondere Crative-Soundkarten hatten (glaube ich) für "viel Freude" bei VIA-Mainboard-Besitzer gesorgt ... und war doch letztenendlich für VIAs berühmt berüchtigten Southbridgebug verantwortlich?!

MFG Bobo(2010)
 
Zuletzt bearbeitet:
@ Twodee

Wie viele haben Jahre lang nur Intel gekauft, weil Intel CPU + Mainboard liefern konnte/kann?!
Jetzt kann AMD CPU, Chipsatz und GPU liefern.

Vorteil:
1. Ansprechpartner (OEMs wissen das zu schätzen)
2. Entwicklungen können aufeinander besser abgestimmt werden.
3. Wissens Austausch, Patente...
und vieles mehr.

Äpfel-Birnen-Vergleich?

Bei CPU+Chipsatz sehe ich es ja ein, aber nicht bei Chipsatz + GPU.
Die GPU ist nur ein standardisiertes Device, mehr nicht. Und nein ich meine damit nicht Fusion [ welches intern auch nur als (PCIe?)-Device angesprochen wird [laut Opteron]].
.
EDIT :
.

AMD kann den Treiber so für die Grafikkarte auslegen, dass tatsächlich die Stärken einer AMD-CPU vollständig ausgenutzt werden. Das mag angesichts der relativen CPU-Schwäche nicht so wichtig erscheinen ... aber wer weiss, wie die ATI-Treiber ohne AMD-Konzernmutter ausgesehen hätten?)
Das ist natürlich ein Punkt, aber kann man sich das erlauben/leisten?
Nicht das dann das vermeindlich schnellere Konkurrenz-Produkt vorgezogen wird, weil es "runder" läuft :]
 

Äpfel-Birnen-Vergleich?

Das ist natürlich ein Punkt, aber kann man sich das erlauben/leisten?
Nicht das dann das vermeindlich schnellere Konkurrenz-Produkt vorgezogen wird, weil es "runder" läuft :]

Äpfel- Birnen- Vergleich?
Warum sollte man es sich nicht leisten können seinen eigenen schwächen zu kaschieren, das bedeutet ja nicht das man Intel künstlich aus bremst.
Das eine hat nichts mit dem anderen zu tun ;D

Manche Vorteile lassen sich schwer erfassen, aber ich gehe einfach auch mal stark davon aus das AMD z.B. stark beim Shink von RV670 auf RV770 geholfen hat.

Der Llano wird zeigen "Was es bringt", du scheinst einfach zu ungeduldig zu sein. Die Entwicklung von CPUs brauch Jahre, also wird erst nach Bulldozer, tief greifende Antworten auf die Frage geben werden können (wenn überhaupt, wegen Firmengeheimnissen).

Schau dir die neue Treibern Politik an, da sieht man doch sehr deutlich das sich was tut.

Aber um deine Frage Sinnvoll zu beantworten, müsste man wohl Mitarbeiter von AMD sein und Zugriff auf sensible Daten haben. ;)
 
Äpfel- Birnen- Vergleich?
Warum sollte man es sich nicht leisten können seinen eigenen schwächen zu kaschieren, das bedeutet ja nicht das man Intel künstlich aus bremst.
Das eine hat nichts mit dem anderen zu tun ;D

Manche Vorteile lassen sich schwer erfassen, aber ich gehe einfach auch mal stark davon aus das AMD z.B. stark beim Shink von RV670 auf RV770 geholfen hat.

Der Llano wird zeigen "Was es bringt", du scheinst einfach zu ungeduldig zu sein. Die Entwicklung von CPUs brauch Jahre, also wird erst nach Bulldozer, tief greifende Antworten auf die Frage geben werden können (wenn überhaupt, wegen Firmengeheimnissen).
Was hat das noch mit meiner eigentlichen Frage in Bezug auf GPU/Karte zu tun? *noahnung*
Schau dir die neue Treibern Politik an, da sieht man doch sehr deutlich das sich was tut.

Aber um deine Frage Sinnvoll zu beantworten, müsste man wohl Mitarbeiter von AMD sein und Zugriff auf sensible Daten haben. ;)
Klar die Qualität nimmt zu, sehe aber nicht das das nur auf AMD-Plattformen der Fall ist. Die ATI läuft auch auf nicht AMD-Plattformen besonders gut.
 
Die ATI läuft auch auf nicht AMD-Plattformen besonders gut.

Die Aussage ist ja nicht, dass es gut läuft, sondern dass es garantiert läuft. Und diesen Vorteil hat man nunmal bei Systemen aus einer Hand.
 
Zurück
Oben Unten