News Rätselraten um AM4: Echtes High-End oder nur neuer Name für FM3?

Wie sie die Plattform nennen ist mit total egal, hauptsache der Sockel hat schön viel PCIe ^^

*great*

die Frage ist um was für ein PCIe es sich im endeffekt handeln wird > Stichwort PCIe 4.0 (ist bereits seit mehreren Jahren auf dem Markt)
Auch wenn auf den Folien überall Gen3 zu sehen ist warum nicht auch diesen überspringen wie den 20nm Fertigungsprozess (>14nm).
PCIe 3 auslassen u. mit Intel (Skylake) gleich ziehen und Gen 4 drauf pappen, sonst wäre von vorherrein schon ein Nachteil in der Platform.
Ein nicht zu kleiner Nachteil..

Gruß u. Thanks Opteron f. den Artikel - gut geschrieben.
 
Zuletzt bearbeitet:
Ja PCIe 4 gäbs zwar schon, wär mir in Hinblick auf den Servereinsatz aber ein zu heißes Eisen.
Da sollte AMD eher auf Sicherheit und Stabilität schauen. Bei nem Herstellungsprozess klappts entweder, oder es klappt nicht, aber Signalfehler auf dem Bus unter Hochlastszenarien wie im Serverbereich üblich ... das würd ich nicht riskieren wollen.

Das würd ich auf später verschieben, dafür böte sich wohl ein abwärtskompatibler AM4+-Sockel an.
 
Ich denke die reinen Zahlenvergleiche der PCIe-Lanes haben einen Schönheitsfehler und daher wirkt das schlimmer als es ist:
Betrachtet man den Vorgänger AM3, so ist klar, dass es eher ein „größerer” Sockel als der obige FM3 werden müsste, immerhin gab es dort über den Chipsatz 32 voll angebundene PCIe-Leitungen. 16 wären also ein Rückschritt.
man sollte herausstellen, dass wir von 32 PCIe 2.0 vs. 16 PCIe 3.0 sprechen, die den selben Durchsatz haben, zzgl. geringere Latenz bei und Overhead bei PCIe 3.
Das wird leider im Artikel nicht einmal erwähnt ;)

So ist es also kein Rückschritt IMHO, im Gegenteil. Schaut man sich die anderen Anbindungen an, sind ja noch weitere PCIe 3 Lanes im Einsatz. 4x für UMI und 4x mal für I/O. Das sind 24 PCIe 3.0 Lanes was der Anbindung von 48 PCIe 2.0 Lanes entspricht. Das ist definitiv ein Sprung an Bandbreite, da 48 PCIe 2 Lanes nur wenige Boards boten. Ein Crossfire in 2x16 PCIe2 würde niemand in Frage stellen. Das sollte man auch nicht bei 2x8 PCIe3, vor allem bei AMDs neuen Multi-GPU Ansätzen wie ja im Artikel schön ausführlicih beschrieben.
 
Da muss ich Complicated zustimmen. Der zitierte Satz sollte noch einmal geringfuegig ueberarbeitet werden. Der Sockel AM3(+) bot doch einige PCIe 2.0 Lanes mehr. Die 890FX und 990FX Northbridges kommen jeweils auf 46 PCIe Lanes. Wobei vier Lanes fuer die Verbindung (A-Link Express III) mit den Southbridges reserviert sind. Nutzbar sind bei den genannten Northbridges demnach 42 PCIe Lanes und nicht bloss 32 Stueck. Selbst wenn man vier PEG Slots mit jeweils acht Lanes anbindet, bleiben somit zehn (einzeln aufsplittbare) PCIe Lanes zur freien Verfuegung uebrig. Die Southbridge steuern ihrerseits weitere PCIe 2.0 Lanes bei. Bei der SB850 sind es zwei und bei der SB950 vier. Davon kann der Sockel FM2(+) nur traeumen, obwohl er dies natuerlich teilweise durch PCIe 3.0 und besser ausgestattete Chipsaetze kompensiert. Eine grosse Anzahl von PCIe Lanes treibt ausserdem (selbst ungenutzt) den Stromverbrauch deutlich nach oben.
 
Ich denke die reinen Zahlenvergleiche der PCIe-Lanes haben einen Schönheitsfehler und daher wirkt das schlimmer als es ist:

man sollte herausstellen, dass wir von 32 PCIe 2.0 vs. 16 PCIe 3.0 sprechen, die den selben Durchsatz haben, zzgl. geringere Latenz bei und Overhead bei PCIe 3.
Das wird leider im Artikel nicht einmal erwähnt ;)
Ja stimmt, die nackten Zahlen schauen schlimmer aus, als es ist.
Aaber: Nur weil volles PCIe in CF-Situationen bisher nicht viel brachte, muss das nicht so bleiben.
Vor Mantle war sehr oft die CPU der Flaschenhals, seit Mantle kann befeuert die CPU die GPU mit mehr DrawCalls. 4K-Auflösung sorgt ebenfalls für mehr Verkehr auf dem Bus und jede weitere Grafikkartengeneration wird noch mehr DrawCalls in Form flüssige Bilder auf den Schirm zaubern können.

Anderes Einsatzgebiet wäre auch GPGPU. Ist dann zwar ein Opteronsegment, aber nur dafür nen eigenen Sockelnachfolger für C32 zu bringen rentiert sich sicher nicht.

Die AM4-Plattform ist für die Zukunft gedacht, nicht für die Zeit in der PCIe2 und 3 keinen Unterschied machte.

Ich sag auch nicht, dass AMD ganz unbedingt viele Lanes bräuchte, ich sag nur, dass sich AMD gedacht haben könnte die zu nutzen, wenn sie sowieso schon auf dem Die zu finden sind. Wer weiss .. vielleicht hatten sie bei AMD schon nen C32-DDR4-Nachfolger in Arbeit und nennen den aufgrund der Rationalisierungsmaßnahmen jetzt einfach AM4.

Wäre zumindest nachvollziehbar, obs wirklich so ist muss die Zukunft zeigen.

@Spina:
Habs mal so umformuliert:
Betrachtet man den Vorgänger AM3, so ist klar, dass es eher ein "größerer" Sockel als der obige FM3 werden müsste, immerhin gab es dort über den Chipsatz mehr als 32 voll angebundene PCIe-2.0-Leitungen. 16 wären also rein zahlenmäßig ein Rückschritt, was aber aktuell gut durch das doppelt so schnelle PCIe-3.0-Protokoll egalisiert werden kann.

Frage dazu:
Eine grosse Anzahl von PCIe Lanes treibt ausserdem (selbst ungenutzt) den Stromverbrauch deutlich nach oben.
Kann man die nicht wirksam abklemmen? Bei den Notebooks gibts doch sowas, oder?
 
Echtes High-End oder nur neuer Namen für FM3?
Also ich bin sehr froh das die Plattform kein Potenzial für einen Stromfresser ála Bulldozer hat.

Ich tippe jetzt mal nach ein paar Lese-Raids durchs Netz auf einen 4-Kern CPU mit ca. 4GHz Boost und einer Gaming-Leistung ähnlich eines i7-2600K bei 95 Watt.
Ich komme da hin weil ich der 16nm Node +15% Effizienz zutraue.
Falls ich da richtig liege wäre das für AMD ein riesen Schritt über den ich (nach der Bulldozer-Pleite) sehr froh wäre.

CPU_Efficiency_Index_Gaming_PC_GAMES_HARDWARE_11-2014-pcgh_b.png
 
Zuletzt bearbeitet:
@Opteron
Der Punkt ist aber, dass ja die PCIe-Lanes Anzahl durch den SoC vorgegeben ist. Diese Konfiguration oben bezeichnet "Summit Ridge" für den Highend Desktop. Also ein 1150/1151 Konkurrent. Das was du für die größeren 8-Kerner möchtest, dürfte immer noch machbar sein. Doch es ist sehr unwahrscheinlich, dass eine GPU 8xPCIe3 in Naher Zukunft auslasten wird. Zum einen nimmt der Datenverkehr auf den GPU Lanes ab mit jeder Weiterentwicklung seitens AMD in Richtung hUMA und Unified Memory unter DX12. Zerocopy Situationen kommen immer häufiger vor. So dass eigentlich die schnellen Anbindungen gar nicht bei der GPU gebraucht werden, sondern eher bei den I/O Anbindungen. SSDs werden immer schneller und PCIe inkl. NVMe ist wohl der Standard der Zukunft.

Das was die GPU bei 4K an Mehrleistung bieten muss tangiert den PCIe Bus kaum, da dies alle zwischen VRAM und GPU ausgehandelt wird mit den hohen Auflösungen. Freesync sorgt zudem dafür, dass man auch nicht mehr den 120/144 FPS nachjagen muss auf Teufel komm raus um flüssig spielen zu müssen.
Mit 4K sinken die Framraten gegenüber FullHD und somit auch die Last zwischen CPU und GPU, wenn 45@4K FPS flüssiger laufen als 70@FHD.

Also wo kann man Bandbreiten Engpässe erwarten in Zukunft? Ich sage nicht bei der CPU<->GPU Anbindung, denn da hat ja AMD mit viel Aufwand Lösungen gefunden. I/O ist der Bandbreitenfresser. Hier scheinen mir die richtigen Upgrades gemacht worden zu sein.

--- Update ---

Ich komme da hin weil ich der 16nm Node +15% Effizienz zutraue.

Schade, dass AMD nichts in 16nm produziert. Zen kommt in 14nm von Samsung. Wieviel Effizienz-Zuwachs traust dem denn zu, nachdem du hier Nvidias kommende GPU-Generation in 16nm direkt für den Müll deklariert hast? ;) Stell dir vor Maxwells Nachfolger Pascal würde lediglich 15% Effizienter werden bei einem Shrink von 28nm auf 16nm ^^. Denn Nvidia ist derzeit der einzige Kandidat der für 16 nm bei TSMC im Raum steht.
 
Ich tippe jetzt mal nach ein paar Lese-Raids durchs Netz auf einen 4-Kern CPU mit ca. 4GHz Boost und einer Gaming-Leistung ähnlich eines i7-2600K bei 95 Watt.
*lol* Was soll das sein? Eine FM3 APU?
 
Kann man die nicht wirksam abklemmen? Bei den Notebooks gibts doch sowas, oder?
Wenn man den PCIe Root Complex (künftig) segmentiert und Power Gating einführt, würde AMD das sicher in den Griff bekommen.
Darf ich die PCI-Express Lanes vom PLX Chip dazu addieren?
In Servern wird man ungern Switches verwenden wollen, weil diese die Latenzen in die Höhe treiben und eine zusätzliche Störquelle sind.
 
Wenn man den PCIe Root Complex (künftig) segmentiert und Power Gating einführt, würde AMD das sicher in den Griff bekommen.
In Servern wird man ungern Switches verwenden wollen, weil diese die Latenzen in die Höhe treiben und eine zusätzliche Störquelle sind.
So wie z.B. ZeroCorePower von AMD, dann klappt das auch ohne Nebeneffekte.
Ja die Latenz ist schon ein Nachteil, vor allem wenn der PLX Chip unter der Northbridge sitzt also als SB degradiert wird. *chatt*
Eine mini NB auf dem Interposer bei 14nm wäre bestimmt sparsamer, aber lassen sich hier auch 100 von Ampere durchjagen? 8)
 
Wenn man den PCIe Root Complex (künftig) segmentiert und Power Gating einführt, würde AMD das sicher in den Griff bekommen.
Ach genau, das war die Sache mit dem Root-Complex. Salopp gesagt halt 2-3 eigenständige x16-Controller die man dann in dem Fall getrennt an-abschalten könnte. Werden sie ja hoffentlich so gelöst haben, ein einzelner 40 Lane-Complex machte ja wohl nur wenig bis gar keinen Sinn.
Intel wirds wohl schon so machen, wenn ich das richtig interpretiere:
https://www.techpowerup.com/201243/intel-core-i7-haswell-e-processor-lineup-detailed.html
Die reden hier zwar nur von einem Root-Complex, wobei beim 5820 16 Lanes fehlen, aber die wird Intel ja wohl kaum ohne Energiesparen abgeklemmt haben ...

@Complicated:
hUMA würd ich in den Zeiten von HBM-Speicher für die GPU genau nicht als Argument nehmen. Das bringt nur was im Unteren/-Mittel-Bereich, eben dort wo man ne APU mit einem Speicher hat, aber im high-End Bereich wird auch die nächstens Jahre nichts an ner dezidierten GPU vorbei gehen. Mal schauen was die vermeintliche HPC-APU von AMD bringt, aber vermutlich ist das auch nur ne GPU mit HBM, die über HTr an CPU-Dies gekoppelt werden, d.h. es muss herumkopiert werden. Und die herumkopiererei scheint in einigen Fälle schon nicht ohne zu sein:
Dafür gibt es in Assassin's Creed Unity den interessanten Effekt, dass sämtliche Zwei- und Drei-Gigabyte-Grafikkarten auf dem Core i5-2500K zwar hohe Frameraten erzeugen, jedoch ab und zu kurze Hänger aufweisen, die den Spielspaß stören. Der Grund ist wahrscheinlich an dem großen VRAM-Hunger des Spiels (vier Gigabyte werden bereits in Full HD belegt) und dem PCIe-2.0-Interface des Sandy-Bridge-Prozessors zu suchen. Während PCIe 3.0 anscheinend schnell genug ist, auch den Speicher der Grafikkarte mit neuen Daten zu versorgen, ist es der ältere PCIe-2.0-Standard offenbar nicht.
http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/5/

SSDs werden immer schneller und PCIe inkl. NVMe ist wohl der Standard der Zukunft.
Jo und das nennt sich auch SataExpress, weils direkt am PCIe-Bus hängt. Das ist eher ein weiteres Argument für viele PCIe-Leitungen ;)

Ne Abnahme des Datenverkehrs seh ich auch nicht, es wird doch immer mehr dargestellt, Mantle hats ja erst ermöglicht tausende Objekte darstellen zu können, siehe zB die ganzen Raumschiffe bei Starswarm, deren ganzen Daten müssen über den Bus. Mit DX11 häts das Problem erst gar nicht gegeben, da vorher sowieso der eine Kern der CPU in die Knie geht, der für die DrawCalls zuständig ist.

Hier ist ein Test von Ende 14 mit ner Nvidia-Karte, demnach schaufelt die Cryengine 4 bei Ryse auch einiges über den Bus:
http://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/15.html

Alle anderen Spiele zeigen wenig bis keinen Effekt, aber es wär eben nicht komplett nutzlos. Wenn man in den High-End-Bereich kommt, sollte man solche Randfälle aber mitnehmen.

Wie besagt, ich sag nicht, dass AMD unbedingt viel Lanes haben MUSS, ich seh das eher als "Nummer Sicher" und nice-to-have. Vor allem aber auch dann, wenns nichts kostet, weil das Die wg. den Servervorgaben sowieso vor PCIe-Lanes strotzt.

Mich würde auch die Antwort auf die Gegenfrage interessieren: Gäbs denn nennenswerte Nachteile?
SPINA hatte jetzt gerade erst den ersten richtigen Einwand, der im Endeffekt dann aber doch kein Problem sein wird. Was gäbs noch?

Anders gesagt: Ja mehr PCIe-Lanes brächte aktuell nicht viel, aber die mickrigen Vorteil sind immer noch höher als eventuelle Nachteile und man hat in Zukunft garantiert keine Probleme und ein Verkaufsargument ggü. Intels 115x-Sockel mehr.
 
...ein einzelner 40 Lane-Complex machte ja wohl nur wenig bis gar keinen Sinn.
Ich bezog mich dabei vor allem auf die alten Hypertransport Chipsätze. Es gab einige wenige Sockel AM3(+) Mainboards mit 990X und 990FX, die annährend baugleich waren. Die mit dem 990FX bestückten Platinen schnitten beim Stromverbrauch jedoch merklich schlechter ab, als diejenigen mit 990X, welcher im Vergleich nur 22/26 PCIe 2.0 Lanes bietet. Für den 990X hat AMD anscheinend dieselbe Maske genommen wie bei der 970 Northbridge. Der Unterschied besteht darin, dass man beim 990X die für den PEG Slot bestimmten 16 Lanes für SLI oder Crossfire X in zwei Mal acht Lanes aufsplitten kann. Das bleibt dem 970 verwehrt. Die 990X Northbridge ist somit kein beschnittener 990FX, sondern ein aufgewerteter 970. Das erklärt wieso Sockel AM3+ Mainboards mit der 990X Northbridge bei gleicher Ausstattung dennoch sparsamer sein können als solche mit 990FX. Der Fairness halber, muss man dazu sagen, dass die Differenz im mittleren, einstelligen Wattbereich angesiedelt ist. Das ist unschön, aber noch überschaubar.

PS: Außerdem bietet die 990FX Northbridge einen beträchtlichen Mehrwert für den damit einhergehenden höheren Verbrauch. Es ist schließlich nicht so, als würde der 990FX den Strom verschwenden. Das tut der 990FX nur, falls man bei der Kaufentscheidung viel zu viel Reserven eingeplant hat und später ein Großteil der Ressourcen brach liegt. Das kann man schlecht der Northbridge anlasten. Es liegt am Käufer korrekt einzuschätzen wieviel PCIe Bandbreite seine Tasks benötigen und danach die Hardware zu dimensionieren. AMD bot verschiedene Optionen an. Der 990FX ist nur eine davon.
 
Zuletzt bearbeitet:
Ach ja die Geschichte.
Gabs die nicht auch mal nen FX-Chipsatz der weniger verbrauchte? Bilde mir ein, dass laut Datenblättern ein Typ mit Visualisierung weniger verbrauchen sollte.
Da hatten wir mal vor Jahren nachgeforscht, eventuell wars auch ne Serverversion SR-irgendwas, erinnere mich dunkel, dass es da ne Merkwürdigkeit gab.

Nichtsdestoweniger könnte AMD es ja wieder so machen, Intel machts ja auch bei den Xeons, also quasi ne Version mit >32 Lanes und ne billige mit nur x16/2x8 für die billigen APU-Boards.

Aber naja .. so stark braucht sich AMD dann auch nicht zu diversifizieren, zum Marktanteilegewinn sollte man solche Späßchen - analog zum offenen Multiplier - erstmal bleiben lassen.
 
Vielleicht sind aber auch Variante 2 und mehr oder weniger 3 richtig. Ich nehme mal ein Beispiel: Der Chipsatz 1070 ist das was wir oben sehen und auf APUs ausgelegt und dazu gibt es noch den 1090fx, der dann für CPUs ausgelegt ist; beide sind grundlegend erstmal mit CPUs und APUs kompatibel, aber eine CPU oder APU auf einem Board mit 1070 gibt dann nur die im Bild zu sehenden 24 PCIe 3.0 Lanes. Auf einem Board mit 1090fx Chipsatz gäbe dann eine CPU z.B. 40 Lanes, eine APU aber weiterhin nur 24. Außerdem wären am 1070 Board noch die Monitoranschlüsse, am 1090fx nicht. Ob dann eine APU im 1090fx-Board Sinn ergeben würde, ist dann eher fraglich, aber eine schwächere CPU mit 4 Kernen oder ähnliches wäre im 1070-Board ganz gut aufgehoben. Somit bräuchte man keine zwei "Spar-Plattformen" entwickeln und der Markt wäre auch ein wenig übersichtlicher, da es keine vier verschiedenen Chipsätze gibt und für jedes von jedem Hersteller 4 Mainboards.
 
News schrieb:
Dazu kommt, dass AMD im Desktopsegment sicherlich wie üblich das gleiche Prozessor-Die wie für die Server verwenden wird, welche wie oben beschrieben mit viel „I/O” angekündigt sind, vermutlich also sowieso mehr als 16 PCIe-Leitungen besitzen werden.
nein, sicherlich nicht. Für den Serverbereich gibt es wohl eher sowas wie Seattle (also Opteron A1100), ein Chip mit sehr spezieller Ausrichtung auf Server, der im Desktopbereich total unsinnig und viel zu teuer wäre. Was dann natürlich auch einen andere Sockelplattform erfordert. Bei AM4 wird man ähnlich wie bei Carizzos FP4 haufenweise USB, SATA usw. rausleiten müssen, einmal 1GBit-Ethernet reicht aber. Bei Seattle gibt es kein USB, dafür 2x 10GBit zusätzlich zu dem 1GBit-Port für das Systemmanagement, aber nur 8 PCIe-Lanes (siehe http://images.anandtech.com/doci/8362/seattle SOC.JPG). Nein, AMD wird sicherlich für den Consumerbereich einen anderen Chip bauen als für Server. Die Anforderungen sind zu verschieden, mit einem Zwischending für beides würde man keinen Markt richtig gut bedienen können.

Aber richtig ist natürlich, daß es bei AM4 sicherlich mehr PCIe geben wird, denn es muß für einen halbwegs sinnvollen High-End-Anspruch auch unbedingt CF möglich sein. Gerade wenn DX12 und die anderen neuen APIs Multi-GPU-Konfigs viel besser nutzen werden können.

Allerdings muß der Mainboardhersteller ja nicht alle verdrahten, wenn er nur ein günstiges Board bauen will. Wenn da nur ein PCIe-Slot auf dem Board ist, dann bleiben eben diverse Pins ungenutzt.
 
nein, sicherlich nicht. Für den Serverbereich gibt es wohl eher sowas wie Seattle (also Opteron A1100), ein Chip mit sehr spezieller Ausrichtung auf Server, der im Desktopbereich total unsinnig und viel zu teuer wäre. (...) Nein, AMD wird sicherlich für den Consumerbereich einen anderen Chip bauen als für Server. Die Anforderungen sind zu verschieden, mit einem Zwischending für beides würde man keinen Markt richtig gut bedienen können.
Also die Sicht überrascht mich jetzt etwas, bisher gabs in Server & Dekstop-High-End *immer* den gleichen Chip. Ich seh jetzt keine Anzeichen, dass AMD ausgerechnet jetzt davon abrücken würde:

a) Der Servermarktanteil ist bei lumpigen 1,5%, ein einzelnes Die für so nen Mickermarkt rentiert sich erstmal nicht, selbst bei 100% Wachstum pro Jahr: -> Ein extra Die wäre unrentabel

b) AMD gehts generell nicht rosig, bei den GPUs leistet man sich schon nur noch ein neues Die pro neuer Generation, der Rest wird umgelabelt, früher gabs da komplette Starts der ganzen Serie, Fazit: AMD muss sparen -> kann sich kein extra Die leisten.

c) In 14nm sind die Maskenkosten wg. Double-Pattering besonders hoch, da man - wie der Name sagt - doppelt soviel Masken braucht, da steigt der Druck auf unterschiedliche Dies zu verzichten, erst recht, wenn man sowieso schon sparen muss.

d) Mit der Umschaltbarkeit zw. PCIe & Hypertransport kann man die vielen Leitungen eines Serverdies in nem 1P-System - wie vielleicht AM4 - wunderschön als PCIe-Leitungen verwenden, ein Vorteil *pro* gleiches Die und eine Verbesserung gegenüber den bisherigen Dies, wo die 2-3 Hypertransportanschlüsse des Dies einfach brach lagen und man trotzdem schon gleiche Dies in Server+HE Desktop verwendete.

@MacroWelle:
Ja genau das war, Danke.
 
Ich Fahre auch noch mit X6 und 990FX AM3+ Brett und es ist Komisch aber mein PC Rockt noch immer und ickkann alles Flott damit Erledigen. Der X6 war/ist einfach ein tolles Teil :)

mfg
 
*great*

die Frage ist um was für ein PCIe es sich im endeffekt handeln wird > Stichwort PCIe 4.0 (ist bereits seit mehreren Jahren auf dem Markt)....

PCIe 4.0 still in the works!
Ich denke, dass das nicht ganz richtig ist - sondern man arbeitet zwar seit 2011 daran - aber verabschiedet ist da noch nichts. Der Termin wurde erneut verschoben - auf 2016.

Daher ist das gewiss auch ein zu heisses Eisen - fuer sensible Umgebungen wie Server IMHO.

TNT

--- Update ---

[...]
d) Mit der Umschaltbarkeit zw. PCIe & Hypertransport kann man die vielen Leitungen eines Serverdies in nem 1P-System - wie vielleicht AM4 - wunderschön als PCIe-Leitungen verwenden, ein Vorteil *pro* gleiches Die und eine Verbesserung gegenüber den bisherigen Dies, wo die 2-3 Hypertransportanschlüsse des Dies einfach brach lagen und man trotzdem schon gleiche Dies in Server+HE Desktop verwendete.
[..].

Ich denke auch, dass diese Faehigkeit fuer 'nur' eine Die spricht... klingt doch einem klugen Vorgehen ;-) !

TNT
 
b) AMD gehts generell nicht rosig, bei den GPUs leistet man sich schon nur noch ein neues Die pro neuer Generation, der Rest wird umgelabelt, früher gabs da komplette Starts der ganzen Serie, Fazit: AMD muss sparen -> kann sich kein extra Die leisten.

Was definitiv falsch ist.
HD 7000 Serie: Tahiti, Pitcairn, Bonaire, Cape-Verde
R200 Serie: Hawaii, Tonga, Oland

Es erscheinen einfach nur innerhalb der Laufzeit der Serie heue GPUs
 
Zurück
Oben Unten