CeBIT: Kommt der AMD/ATI R600 gleich in 65 nm?

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Über das "Phantom" der CeBIT 2007, den kommenden AMD/ATI R600 DX10 Grafikprozessor, haben wir bereits ausführlich <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173984639">berichtet</a>. Auch über die möglichen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1172244573">Gründe</A> für die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173282456">Verzögerung</A> gibt es bereits Meldungen auf Planet 3DNow!

Obwohl man sich bei AMD zum R600 ungewöhnlich zugeknöpft zeigt und die paar definitiv existierenden R600 Karten der Presse nicht einmal im Hinterzimmer zeigt, will man bei <a href="http://uk.theinquirer.net/?article=38292" TARGET="_blank">INQ</A> erfahren haben, dass der Grund für die Verzögerungen ein Umschwenk auf den 65 nm Herstellungsprozess sein soll. Damit soll es möglich sein, die über 720 Millionen Transistoren starke GPU mit über 1 GHz Taktfrequenz arbeiten zu lassen, ohne - wie offenbar momentan noch - Probleme mit Stromverbrauch und Wärmeentwicklung zu bekommen. Demnach sollen die Karten ausschließlich in der 65 nm Version in den Handel kommen und über ein Drittel weniger Strom verbrauchen, als die 80 nm Karten der Vorserien-Generation.
Danke nazgul99 und cruger für den Hinweis
 
Ich wills mal so sagen: Der MUSS in 65nm kommen - ansonsten kann AMD/ATI das Geschäft mit dezidierten Grakas auf der Stelle aufgeben!

Denn angesichts sicher bald kommender Energieverbrauchsrichtlinien in weiten Teilen der Welt, dürfte eine Grafikkarte mit Verbräuchen jenseits der 150 Watt sehr schnell unverkäuflich sein - in manchen Ländern sogar gesetzlich geregelt...
Und auch 65nm darf nur ne kurze Zwischenstation auf dem Weg zu 45nm sein, dessen Fertigung ja so gut wie serienreif is...

IMHO is mittelfristig bei Highend-Grakas eine Obergrenze bei 100 Watt zu ziehen!
 
Zuletzt bearbeitet:
Jop und wenn AMD nicht Gas gibt, dann haben wir wieder ein Monopol und können uns die derzeitigen Traumpreise in die Haare schmieren...
 
Bis die Gesetze tatsächlich durch sind - Herr Gabriel z.B. will das ja am liebsten gleich auf EU-Ebene klarmachen, sonst bringt das ja auch wenig - werden GPUs sicher bereits in 45nm produziert. Sowas dauert halt. Und auf R600 (80nm) wäre ja ohnehin in kurzem Abstand die 65nm-Version gefolgt - durch die Verzögerung schrumpfte dieser wahrscheinliche Abstand gegen Null.

Irgendwo hab ich übrigens gelesen (Mist, Link nicht gemerkt, war es golem.de? War jedenfalls aktuell von der CeBIT), daß AMD ab 2009 GPUs in den eigenen Chipfabriken fertigen will. Chipsätze dann ja sicherlich auch. Wahrscheinlich war das ja ohnehin, dies war nun die erste Bestätigung. Und es verbessert die Chance, daß die Fab in NY tatsächlich gebaut wird, beträchtlich.
 
und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen :]
 
und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen :]
Aber erst 2009. Vorher (vor Konvertierung Fab30 -> Fab38) wird in AMDs Fabs kaum Kapazität für anderes als CPUs übrig sein - allein wegen der Quadcores.
.
EDIT :
.

mmh, ob sowas kommt?
Ist doch ne ganz interessante Sache, ob die hersteller jetzt stromsparendere Produkte entwerfen!?
Ich würd's vor allem gut finden, wenn die Karten im Dauerbetrieb (Desktop, ob mit oder ohne 3D) deutlich weniger verbrauchen würden. Die Notebook-Technik mit GPU im Chipsatz und seamless-Umschaltung auf externe GPU zum Daddeln könnte hier helfen.
 
und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen :]
das ist sicherlich richtig ... aber wenn man tatsächlich von einem drittel weniger leistungsaufnahme ausgeht, dann wird der r600 dennoch ein ziemlich stromschlucker bleiben. vielleicht schafft man es ja, die ohnehin schon hohen werte der x1950xtx zu unterschreiten. das wäre mir zwar immer noch zuviel, aber man muss ja berücksichtigen, dass der r600 noch ein ziemlich reinrassiges ati produkt ist. amds einflüsse werden wohl erst bei der nächsten generation so richtig zum tragen kommen.

für mich als gelegenheitsspieler wäre es wichtig, dass die neue mittelklasse (vergleichbar mit der 7600gt aus der letzten generation) möglichst nicht mehr als 50w verbraucht und ohne zusätzlichen strom-stecker auskommt.
 
aber man muss ja berücksichtigen, dass der r600 noch ein ziemlich reinrassiges ati produkt ist. amds einflüsse werden wohl erst bei der nächsten generation so richtig zum tragen kommen.
Dann wäre es IMHO besser, AMD/ATI würde sich bis zur Serienreife eines R700 (?), der dann mit AMD-Knowhow entwickelt wurde, ganz mit Neuheiten zurückhalten - ehrlich erklärt und richtig in der Presse dargestellt dürfte eine solche "Pause" auf dem Grakamarkt sich weniger negativ auswirken als ne Lachnummer @R600...
 
und dieser schritt ist ja wohl nur möglich, weil amd schon so weit ist mit 65nm - im gegensatz zu ati alleine...und wer hat alles geunkt, der fortschritt amds in der prozesstechnik würde nichts(!) für die grafik/chipsatzsparte bringen :]
Ich glaube nicht, daß AMDs Erfahrung mit 65nm sehr viel bringt... ein Bisschen vielleicht. Die Grafikchips werden bei TSMC gefertigt, und wenn die den 65nm Prozess nicht im Griff haben, nützt AMDs Erfahrung erstmal nix. Man kann das CPU Know How nicht einfach auf GPUs übertragen. Welche AMD CPU hat >700 Mio Transistoren, wovon >90% Logik sind? Welche GPU hat auf der Hälfte der DIE-Fläche verhältnismäßig "einfachen" Cache?
 
Ich wills mal so sagen: Der MUSS in 65nm kommen - ansonsten kann AMD/ATI das Geschäft mit dezidierten Grakas auf der Stelle aufgeben!

Denn angesichts sicher bald kommender Energieverbrauchsrichtlinien in weiten Teilen der Welt, dürfte eine Grafikkarte mit Verbräuchen jenseits der 150 Watt sehr schnell unverkäuflich sein - in manchen Ländern sogar gesetzlich geregelt...
Und auch 65nm darf nur ne kurze Zwischenstation auf dem Weg zu 45nm sein, dessen Fertigung ja so gut wie serienreif is...

IMHO is mittelfristig bei Highend-Grakas eine Obergrenze bei 100 Watt zu ziehen!

Eine Obergrenze bei 100W sehe ich als nicht sehr realistisch an. Man muss mal überlegen, welch mächtiges Stück Technik der R600 ist. Ich würde Highend-Grafikkarten schon eine maximale Verlustleistung von 175W gönnen. Das ist nicht sehr viel im Vergleich zum Verbrauch von Halogenstehlampen (bis zu 300W).
Und Grafikkarten laufen auch nicht die ganze Zeit unter Volllast, außer sie werden für F@H oder 3D-Applikationen missbraucht 8) .

MfG
 
Mittelfristig sollte in einem Zeitraum von drei bis fünf Jahren heißen - da müsste das machbar sein...
Und solche Lampen werden wohl auch bald durch andere Technologien ersetzt werden.
 
Zurück
Oben Unten