R900 Spekulationsthread

p4z1f1st

Grand Admiral Special
Mitglied seit
28.04.2003
Beiträge
9.722
Renomée
81
...irgendwann muss ja der Anfang gemacht werden ;D

Also gut, die einzige Spekulatius die ich zu bieten hätte, wäre der Fertigungsprozess in 32nm...da ich langsam davon ausgehe, dass AMD sowohl bei den CPUs als auch GPUs unter vorgehaltener Hand auch ein "TickTock"-Prinzip fahren wollen (welches ich immer noch am besten finde).

Und da ja so "Mini-Gerüchte" eines 32nm-Refreshs des R800 zu Mitte 2010 gehandelt werden, liegt es wohl nahe, dass der R900 auch im 32nm-Gewand daherkommt...28nm kann ich mir hingegen nicht vorstellen.

Und hatte jemand mal nicht behauptet gehabt, dass der R900 auch eine reine Neuentwicklung sein sollte, wie der K11 quasi im Bereich der CPUs?
 
Ich glaube nicht, dass wir 32nm sehen werden. Ich glaube das wird wieder übersprungen und man kommt mit 28nm. Das dürfte bei GF nicht viel später kommen und bei Bulk legt man da bei GF glaube mehr Wert drauf. Mitte nächsten Jahres dürfte auch eher der Produktionsstart sein, ich erwarte die eher zu ner ähnlichen Zeit wie dieses Jahr.

Ne neue Architektur glaube ich auch eher. Die R600 Architektur wird einfach langsam zu ineffizient, wie man meiner Meinung nach bei rv870 sieht. Immer nur dranflanschen geht einfach nicht. RV770 war so ein gutes Design, weil mans geschafft hat alle Bottlenecks vom R600/670 auf kleiner Fläche zu beseitigen. Das war bei Rv870 nicht mehr der Fall. Der Performancezuwachs bei gleicher Taktrate ist doch recht mau für die Verdopplung von allem.

Außerdem würde ich diesmal von ausgehen, dass r900 nen größeres SI bekommt. Irgendwas zwischen 512Bit und 256Bit sollte ne gesunde Speicherbandbreite erzeugen, vll 320 Bit oder so.
 
Bei CPUs wird ja schon mit Dual- und Triplechannel für den RAM gearbeitet. Ist sowas bei Grafikkarten auch eine Idee? Die Taktraten der Chips sind ja schließlich nicht ewig steigerbar.
 
Es wird, wenn die bisherigen Vermutungen zum R900 sich bestätigen, auch am Memory Controller sich was tun müssen. Immerhin sollen ja beim R900 mehrere kleine Chips per MCM zusammen geschaltet werden, und das nicht mit CF, sonder als wirkliche Multi Core GPU. Damit stellt sich die Frage ob es überhaupt ein großes Speicher Interface braucht, immerhin dürften die einzelnen Dies nicht zu groß werden wenn ATI mit einer Die alle Segmente abdecken will. Man überlege von der Größe in Richtung Redwood nur in 32nm. Ein solche Die würde wohl mit 128bit SI ausgestattet werden. Wenn man davon ausgeht das ATI bis zu vier solcher Dies zusammen pappen will würde eine QC GPU mit 512bit Speicherinterface entstehen.
Das Problem an jetzigen Überlegungen ist aber, das der R900 eine komplett neue Architektur werden sollte, also vermutlich nicht nur die jetzige Architektur auf MCM. Wer weis mit was ATI sich da ausgedacht hat.
 
Die kleinen Chips per MCM Gerüchte gabs mittlerweile vor jedem Chip seit R600 und nie isses das geworden. Ich zweifle mittlerweile ob Amd das Projekt weitergetrieben hat, weils doch nicht so einfach ging wie man sichs früher mal vorstellte. Wir werden sehen ob sich bei Hemlock was an der Verbindung ändert. Wenn es immernoch stinknormales CF ist, dann kann man das MCM Zeugs vergessen. Man würde das nie und nimmer sofort in die gesamte Architektur ohne nen Testlauf einführen, weil man wenns doch nicht funktioniert wie man will total am arsch wäre.
 
@gruenmuckel: Das ist ja eben die Breite des Speicherinterfaces. Bei CPUs werden je 64bit "ein Kanal" genannt, weil die RAM-Riegel so gebaut sind. Aber Grafikkarten kann man ja verdrahten, wie man will, die 2900XT hatte ja mit 512bit bereits ein "8-Kanal-Interface", wenn Du so willst.

Wie breit das Speicherinterface wird, das ist ja rein abhängig vom dann verfügbaren RAM; über sowas, oder den Takt u.ä. brauchen wir eigentlich nicht zu reden, das ist ja uninteressant. Reine Designentscheidung, wie groß oder klein man einen Chip macht, um möglichst effizient eine bestimmte Marktposition zu treffen. Die "6870" wird schon schneller werden als die 5870 ;)

Eine Architektur-Neuentwicklung dürfte wohl stärker Richtung GPGPU gehen, weil AMD langsam was braucht, was in Fusion und Nachfolgern nicht nur die Grafik macht, sondern wie eine FPU als echter Coprozessor nutzbar ist. Ich gehe stark davon aus, daß man sowohl bei Bulldozer als auch "R900" (was ja sicher nicht so heißen wird, sondern wieder irgendeinen tollen Codenamen bekommt) mehr oder weniger zusammen entwickelt, zumindest im Hinblick darauf, wie ein optimale Arbeitsverteilung auszusehen hat. Für die Anwendungssoftware müßte das natürlich beides als Einheit erscheinen, und OpenCL oder DirectX oder was auch immer weist dann die passenden Hardwareeinheiten zu.
 
Das der R900 "komplett neu" sein soll gilt als recht sicher. Ich hab letztes Jahr auf der GC schon mit Saphire drüber gesprochen. Das war die Zeit wo das Gerücht aufkam. Es ist auch realistisch weil ja bald (2011?) die neuen Next-Gen Konsolen kommen sollen und auch dafür neue GPUs herhalten sollen.
Was man da erwarten kann steht aktuell noch recht weit in den Sternen. Gerüchte habe ich bisher im Bereich MCM (nur noch verschiedene Core-Anzahl und Takt bei den einzelnen Modellen) und Taktdomänen (mehr als 2?) gehört.
Wie tief gehend nun die wirklichen Architekturänderungen werden oder was man unter "komplett neu" verstehen soll.. Ich denke frühestens Anfang 2010 sind wir schlauer.

Bei der Fertigung wird man sehen müssen was AMD für sinnvoller hält. Wenn man denkt man kommt mit 28 nm gut voran und der Chip verspätet sich nicht wegen dem Prozess dann wird man es wohl machen.
Auf jeden Fall denke ich aber, das wir wieder sowas wie den RV740 sehen werden. Eine 32/28 nm GPU zu Testzwecken.
 
Was soll denn überhaupt "neu" sein?

Stehen da schon gute Raytracing-Eigenschaften im Vordergrund, oder ist das immer noch ein klassischer Rasterization-Chip?

Bis vor wenigen Tagen wusste ich nicht, dass ATI aktiv an der Standardisierung von GDDR3, GDDR4 und GDDR5 beteiligt war. AMD hat da ATI auch weitermachen lassen.
http://theovalich.files.wordpress.com/2008/11/gddr5_05_ram-roadmap.jpg?w=100&h=75
Mit einem Differenziellen Busanbindung wird die Verdoppelte Datenrate von GDDR5 in Angriff genommen.

Was in der Industrie seit längerer Zeit in die Runde geworfen wird, sind Chips in Sandwich-Bauweise. Damit kann RAM direkt angesprochen werden und spart Platz.

Bei Grafikkarten ist da nicht der Platzvorteil sexy, sondern die direkte Anbindung von Rechenclustern mit entsprechenden Speicherzellen. Das hatte Intel beim Polarisprojekt in Aussicht gestellt. Vergleichbare Mash-Architekturen kennen ebenso diese Idee.

Also Speicherbandbreite kann die nächsten 2 - 3 Jahre noch deutlich gesteigert werden, ohne die Pinanzahl wesentlich zu erhöhen.

Also zurück zur Frage, was denn die nächste andere ATI-Architektur besser können muss, damit man sich vom aktuellen Grunddesign des R600 löst.
Und ist der "R900" schon ein Chip dieser neuartigen Architektur?

MFG Bobo(2009)
 
2011 ist relativ sicher, da steht auch auf der ht4u Roadmap "Next-Gen":
amd_desktop_roadmap_bis_2011.jpg


Obs ne neue Architektur werden soll, glaube ich nicht. Die 5er VLIW SPUs sind gesetzt, denke ich, was sollte man da denn besser machen können ? Die werden vermutlich wieder an Funktionen zulegen und die Anzahl wird weiter vergrößert. nV soll angeblich ja MIMD bereits mit dem 300 Chip bringen.

Taktdomänen und MCM Spielereien sind eher nur Kleinigkeiten.

ciao

Alex
 
ich erwarte:

- 28nm und keine 32nm !!!
- weniger Stromverbrauch
- bessere Stromsparfunktionen ( idle )
 
Wo genau liegt eigentlich das Bottleneck, dass die häutigen GPUs ausbremst? Bei der HD 5870 wurde ja die rohe Rechenleistung verdoppelt, die FPS sind aber weit aus geringer gestiegen. Klar kann man jetzt auf Amdahls Gesetz oder Gustafsons Gesetz verweisen, aber liegt darin wirklich die ganze Wahrheit?


MfG @


Oder liegts daran, dass die Karte auf DX11 optimiert ist?

bf1920.png


Hat der starke Performanceboost vielleicht hiermit was zu tun:
The texture units located here have also been reworked. The first of these changes are that they can now read compressed AA color buffers, to better make use of the bandwidth they have. The second change to the texture units is to improve their interpolation speed by not doing interpolation. Interpolation has been moved to the SPs (this is part of DX11’s new Pull Model) which is much faster than having the texture unit do the job. The result is that a texture unit Cypress has a greater effective fillrate than one under RV770, and this will show up under synthetic tests in particular where the load-it and forget-it nature of the tests left RV770 interpolation bound. AMD’s specifications call for 68 billion bilinear filtered texels per second, a product of the improved texture units and the improved bandwidth to them.
Quelle
 
Zuletzt bearbeitet:
Wo genau liegt eigentlich das Bottleneck, dass die heutigen GPUs ausbremst? Bei der HD 5870 wurde ja die rohe Rechenleistung verdoppelt, die FPS sind aber weit aus geringer gestiegen. ...
Wie wärs mit etwas geringerer gesteigerter Speicherbandbreite?

Den Speichertakt herunterzudrehen würgt (meiner Meinung nach) die Leistung meiner RV740 mehr ab, als am GPU-Takt zu drehen.
 
Wie wärs mit etwas geringerer gesteigerter Speicherbandbreite?

Den Speichertakt herunterzudrehen würgt (meiner Meinung nach) die Leistung meiner RV740 mehr ab, als am GPU-Takt zu drehen.

Deswegen hatte ich ja einige Spekulationen bezüglich des Speicherinterfaces angestellt. AMD behauptet ja, man wäre nicht bandbreitenlimitiert!

Also woran könnte es dann liegen?
.
EDIT :
.

Kann es eventuell sein, dass Quimonda (konnte damals bereits auf 1,1 GHz übertaktet werden) schnelleren Speicher hätte liefern können?

Die laut Spezifikation unnötige Erhöhung auf 1,6 V Betriebsspannung macht mich etwas stutzig.
 
Zuletzt bearbeitet:
Ein Problem ist die "langsame" Verbindung zwischen CPUs und GPUs

PCIe 2.0 x16 macht gerade mal 8000MB/s theor. !

HyperTransport 3.1 macht schon mal 25600MB/s bzw 51200MB/s bei 32Bit

aber schaut man sich die Speicherbandbreite heutiger Grakas an - 150000MB/s

Es dürfte für AMD kein Problem sein, die GPUs mit einem HTX3.1 an die CPUs zu koppeln - dies würde auch die Latenz senken.

Auch würde man den Umweg über PCIe umgehen (Intel machts anders rum)

derzeit : CPU -> HT-Link -> Chipsatz mit PCIe -> GPU ( AMD-Sys )
CPU -> QPI -> Chipsatz mit PCIe -> GPU ( Intel )
Intel bald : CPU -> PCIe in CPU -> GPU (ein Anfang aber über langsames PCIe)
andere Mglk: CPUs -> HT-Link mit HTX3.1 -> GPUs (um einiges schneller)


Zweites Problem - die "Spiele" sind nicht genügend Mulitprozessor geeignet - dh selbst wenn genügend Kerne vorhanden sind, bremsen die Kerne die GPUs aus.
 
ich erwarte:
- 28nm und keine 32nm
Naja 32nm gibts ja eh 2010 ( Da war doch was mit nem AMD <> GF Vertrag, dass AMD GPUs fertigen läßt)... von daher darfst Du 2011 ruhig 28nm erwarten ;-)

HyperTransport 3.1 macht schon mal 25600MB/s bzw 51200MB/s bei 32Bit
Jo, aber die Links sind z.Zt. nur 16bit breit. Im Moment passt das schön. Bei 2 GHz HTr Takt gibts genau die 2x8 GB/s, die auch ein x16 PCIe 2.0 Slot z.Zt. lieferen kann. 2011 wirds wohl PCIe3 geben, da würden 16bit HT Links bremsen, aber ob das bei 2 GB VRAM, die dann sicherlich Standard sind, überhaupt was ausmacht ...

Intel bald : CPU -> PCIe in CPU -> GPU (ein Anfang aber über langsames PCIe)
Blöderweise scheint es bei Intel aber intern immernoch ein QPI Interface zu geben...

ciao

Alex
 
... AMD behauptet ja, man wäre nicht bandbreitenlimitiert! ...
Würdest du als AMD Verkaufsmanager auch behaupten ;D

... Kann es eventuell sein, dass Quimonda (konnte damals bereits auf 1,1 GHz übertaktet werden) schnelleren Speicher hätte liefern können? ...
Alle RV740 wurden mit GDDR5 bestückt, der laut Spezifikation 1 GHz vertrug ... aber in der Praxis wurden daraus 800 MHz gemacht mit maximal 50 MHz Aufschlag im ATI Catalist-Tool.

Ob Qimonda noch bessere Speicherchips damals hätte liefern konnte, weiss ich nicht. Es sind auf jeden Fall nicht mal die technisch machbaren Grenzen von AMD ausgereizt worden.
Das gibt durchaus Sinn, wenn man schon eine Nachfolgegeneration in der Mache hat, aber nicht mal "so eben" die Bandbreite mit verdoppelten Takt hochreissen kann.

Damit die Karten aber auch schön billig bleiben, wollte man aber bei 128 Bit und 256 Bit breiten GDDR5-Speicherinterfaces bleiben. Das wird vermutlich auch 2010 so bleiben, weil dann eine verbesserte Version dieses Standards eingeführt werden sollte.

MFG Bobo(2009)
 
Die Speicherbandbreite ist nicht das größte Problem. Mehr als 10% würde er auch nicht mit schnellerem Speicher rauskriegen. Siehe zb auch Vergleiche von 4850 zu 4870. Doppelte Speicherbandbreite und inner Regel nur 10% Unterschied dadurch. Der rv870 ist in seinem Gesamtkonzept größtenteils ein überall verdoppelter Rv790 der auf DX11 aufgebohrt ist. Aber durch eine Verdoppelung kriegt man nie die doppelte Geschwindigkeit. Dazu bedarf es anderer Änderungen an der Architektur und ich bin überzeugt, dass wir diese bei der r900 Generation sehen werden. Dann würde ich die größten Leistungsgewinne auch bei DX11-Spielen annehmen, da die Architektur fordergründig auf dessen Anforderungen optimiert sein sollte.
 
zumal vorhandene einheiten und ausgelastete einheiten auch noch zwei paar schuhe sind!
 
2011 ist relativ sicher, da steht auch auf der ht4u Roadmap "Next-Gen":
Kann man ausschließen, dass ein DX11 @ 32nm nicht aus als Next-Gen benennt wird?

@Topic
Ich glaube eher, es läuft so wie mit der R6x0-Serie ab.
So "1,5" Jahr nach der Einführung kommt eine neue DX11-Architektur.
Zwar ist RV770 (2.Versuch der R6x0-Architekturr) 1 Jahr nach R600 gekommen, aber R600 verspätete sich um 0,5 Jahr.
Und RV870 hat sich wegen 40nm auch (etwas) verspätet. Die Frage ist nur wieviel?

Bis dahin könnte es zumindestens eine 32nm-RV870 aus der AMD-Fabrik geben, da AMD mit Probe-Fertigungs-GPUs a la RV740 gute Erfahrungen gemacht hat.
Dazu erwarte ich eine HD5890. Ob es ein verbesserter RV870 @ 40nm ist (Ich denke schon, dass AMD an den Yields arbeitet und nebenbei den Takt erhöhen kann) oder gar ein RV890 (=RV870 + Entstörungs-Transistor), kann man nur spekulieren.
 
Zuletzt bearbeitet:
Ich erwarte was ganz neues in 28nm und kein 512bit SI (das der Chip dafür sicher zu klein wird). So 384bit + 7Gbps GDDR5 und eben komplett neue Arch. Vielleicht auch mehr in Richtung GPGPU.
 
der 40nm prozess hat bestimmt noch verbesserungspotential, nach all den anlaufschwierigkeiten, kann ich mir nicht so recht vorstellen dass der jetzt mal eben auf vollen touren läuft....

d.h. AMD hat da womöglich sowieso noch taktspielraum.

für den R900 wäre es schön mehr in die MIMD-Richtung zu gehen. Soweit ich weiß, ist es momentan so, dass alle ALUs mit einem befehl gefüttert werden, aber mit unterschiedlichen daten rechnen, d.h. es können nicht 500 davon einen Befehl bearbeiten und 500 andere einen anderen befehl inkl. dessen daten.
Wenn das ginge, wäre das ein großer schritt in richtung universelle verwendbarkeit, mit wesentlich besserer Auslastung!

grüßchen
ich
 
Die Speicherbandbreite ist nicht das größte Problem. Mehr als 10% würde er auch nicht mit schnellerem Speicher rauskriegen. Siehe zb auch Vergleiche von 4850 zu 4870. Doppelte Speicherbandbreite und inner Regel nur 10% Unterschied dadurch. Der rv870 ist in seinem Gesamtkonzept größtenteils ein überall verdoppelter Rv790 der auf DX11 aufgebohrt ist. Aber durch eine Verdoppelung kriegt man nie die doppelte Geschwindigkeit. ...
Ich habe nie gedacht, geschrieben und behauptet, dass eine hypothetische doppelt angewachsene Speicherbandbreite automatisch zu einer verdoppelten Rechenleistung führt.

Der Witz ist ja, dass sich die Speicherbandbreite eben NICHT mit verdoppelt hat, OBWOHL sich die rohe Rechenleistung mindestens verdoppelt hat.

Die gering gewachsene Bandbreite kommt so huckepack auf Amdahls Law (-> "verdoppelter RV790"). Der verdoppelte L2-Cache im RV870 könnte es teilweise kaschiert haben.

MFG Bobo(2009)
 
Ich schätze, dass mit dem R900 erstmal keine grundsätzlich neue Architektur kommt.
Dazu läuft die derzeitige einfach zu gut. Bevor hier überhaupt die Notwendigkeit entsteht etwas besseres zu bringen muss Nvidia erst mit einer gleichwertigen oder überlegenen Architektur kontern.
Solange wird man die alte Architektur ausbauen und nebenbei an neuen Ideen Feilen.

Ich glaube eher, man wird versuchen zum R900 die bisherige Architektur wieder zu entschlacken um Preiswerte Leistung anbieten zu können.
Also wird das Ziel sein die Rechenleistung pro mm² und pro Watt zu steigern.
 
Ich schätze, dass mit dem R900 erstmal keine grundsätzlich neue Architektur kommt.
Dazu läuft die derzeitige einfach zu gut. Bevor hier überhaupt die Notwendigkeit entsteht etwas besseres zu bringen muss Nvidia erst mit einer gleichwertigen oder überlegenen Architektur kontern.
Solange wird man die alte Architektur ausbauen und nebenbei an neuen Ideen Feilen.

Ich glaube eher, man wird versuchen zum R900 die bisherige Architektur wieder zu entschlacken um Preiswerte Leistung anbieten zu können.
Also wird das Ziel sein die Rechenleistung pro mm² und pro Watt zu steigern.

Wie die nächst Generation aussehen wird dürfte längst definiert sein. Da werden höchstens Details angepasst. Also nix mit warten auf den GT300!
 
..Bis dahin könnte es zumindestens eine 32nm-RV870 aus der AMD-Fabrik geben, da AMD mit Probe-Fertigungs-GPUs a la RV740 gute Erfahrungen gemacht hat.....

Aber diese Erfahrung hat nicht AMD selbst gemacht, sondern eher TMC gemacht! Ich denke nicht, dass TMCs Prozess so ohne weiteres auf GF uebertragen laesst - zumal TMC das sicher zu verhindern wuesste.
 
Zurück
Oben Unten