Opteron APU geistert als vermeintliche GPU durch die Online-Gazetten.

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.645
Renomée
2.254
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
Wccftech meldet eine angebliche Hawaii-GPU von AMD, jedoch handelt es sich bei dem Schema augenscheinlich im eine APU mit 8 Bulldozer-Modulen / 16Kernen.

Zurückverfolgt werden kann das Schema ins Semiaccurateforum, wo es bereits Ende 2012 gepostet wurde:
http://www.semiaccurate.com/forums/showpost.php?p=168728&postcount=7

Ob es nun ein totals Hirngespinst ist, oder nicht wird man sehen müssen.

Für ne News ist es mir zu dünn, aber im Spekuforum ist alles erlaubt, hier das Bildchen in Großauflösung:

volcanic-islands27zslx.jpg


Zusammenfassende Worte von Gipsel aus dem 3DC:
Es gibt acht 72bit (64Bit+ECC) Speicherinterfaces für DDR3, wenn ich das richtig entziffere. Außerdem sind dort nur 16 CUs zu erkennen, also "nur" 1024 SPs. Und die paarweise Anordnung der Kerne erinnert doch irgendwie an Bulldozer. Außerdem, steht in der Mitte zwischen zwei Kernen in dem blauen Feld nicht "FPU"? Das ist also meiner Meinung ein high-level-Blockdiagramm eines 16 Kern-Bulldozer-Derivats mit 16 CUs (1024 SPs) und 8kanaligem DDR3-Speicherinterface (Bandbreite 136GB/s bei DDR3-2133).
Was man auch noch sieht, sind Hypertransportanschlüsse und der ab 2014 obligatorische ARM A5 Core für Security.
Hergestellt werden müsst ein solches Monstrum natürlich in 20nm.
 
Oje 8-Kanal-DDR3 (REG ECC?) mit Hypertransport & PCIexpress 3.0 - soll dies ein Sockel 4000 werden *noahnung*

Ok sollte AMD mit diesem "Monster" sich auf 2P-System beschränken würde man nicht so viele Hypertransportlinks benötigen - oder gerade doch für stärkere Sockel-zu-Sockel-Kommunikation ...

Für mich viel zu viel ... wäre aber ggf für Spielkonsole lustig:
8 Modul "Bulldozerableger" mit fetter Grafik und breitem Speicherinterface - klingt irgendwie nach XBox *noahnung*
 
Käme von der Größenrechnung sogar in etwa hin... Das Ding könnte gebaut werden, btw. das Bild im Original-Beitrag wurde entfernt ^^

Vielleicht war das mal ein Design-Vorschlag für XBox oder PS. Die Fertigung kam dann aber zu spät *noahnung*

Oder es gibt nächstes Jahr eine PS4-BoostEdition mit Bulldozer- statt Jaguar-Architektur und vollen 4k-Support *lol*
 
Oje 8-Kanal-DDR3 (REG ECC?) mit Hypertransport & PCIexpress 3.0 - soll dies ein Sockel 4000 werden *noahnung*
Hab ich mich auch gefragt, und da hatte ich noch die schlechte Version und konnte die Hypertransportlinks noch nicht entziffern.

Lösung wäre einfach ne aufgelötete CPU auf ner Seamicro-Karte.
Ok sollte AMD mit diesem "Monster" sich auf 2P-System beschränken würde man nicht so viele Hypertransportlinks benötigen - oder gerade doch für stärkere Sockel-zu-Sockel-Kommunikation ...
Die HT-Links machten es für mich eher unglaubwürdig .. aber naja, mal schauen.
Für mich viel zu viel ... wäre aber ggf für Spielkonsole lustig:
8 Modul "Bulldozerableger" mit fetter Grafik und breitem Speicherinterface - klingt irgendwie nach XBox *noahnung*
Ja ein bisschen schaut es so aus, aber das tut jede APU.
In 28nm wär das Ding aber zu riesig, denke ich.

Käme von der Größenrechnung sogar in etwa hin... Das Ding könnte gebaut werden, btw. das Bild im Original-Beitrag wurde entfernt ^^
Naja in 28nm eher nicht, sogar ein L3 ist da eingezeichnet, das wäre Orochi+ 1024 Shader und dann die ganzen Speicherkontroller ...
Vielleicht war das mal ein Design-Vorschlag für XBox oder PS. Die Fertigung kam dann aber zu spät *noahnung*
Wegen den IOs (HT/PCIe) eher unwahrscheinlich. Ne KonsolenAPU braucht das nicht.
Oder es gibt nächstes Jahr eine PS4-BoostEdition mit Bulldozer- statt Jaguar-Architektur und vollen 4k-Support *lol*
Lol, wär witzig, geht wg. der Hardwarenahen programmierung aber nicht :)
Außerdem .. 16 Threads .. bisschen viel.
 
in 28nm wäre das Ding auch nicht größer als nVIDIAs Titan;

Dieses Ding könnte per PCIe 3.0 oder HTX auch als Erweiterungskarte für massive HSA-Anwendungen in Servern geeignet sein ... muss man nur andere Sachen deaktivieren ...

Ggf bringt AMD doch noch ein echten Gegner für Intels CorEi 7 47xx - halt nen 16 Core Bulldozerableger mit noch fetterer Grafik als in Kaveri, nochmehr Speicher und endlich PCIe 3.0 .... 8 Kanal DDR3 wäre auch in einem Sockel 2000 machbar wenn keine HyperTransportlinks nach außen gehen - nur intern verwendet werden .... könnte man Board mit 8 RAM-Slots (je 1 pro Kanal) durchaus bauen - jedoch mit sehr vielen Lagen ....

Aber mein Tip - eins der vielen Designstudien aus dem Hause AMD
 
Wozu braucht man eig. ein vierfaches Front-End und 64 ROPs für 1.024 ALUs?
Ergibt für mich wenig Sinn, außer gewisse Anwendungen könnten davon profitieren.
Auf was kommt es denn bei CAD-Software, bei Render-Farmen, HPCs oder sonstigen Anwendungsfelder an, außer viel Rechenpower?
Braucht man für irgendein Gebiet ein starkes Front-End oder Back-End?

Da es schon etwas älter ist und von einem User verlinkt, sieht das bisher natürlich arg fanmade aus, ohne mit AMD überhaupt etwas zu tun haben zu müssen.
 
28 nm bin ich nie von ausgegangen, wenn so ein Monster, dann 20 nm. Ich schließe mich aber Crashi an, mein Gefühl sagt mir, dass das nur eine Studie war. Oder aber vielleicht eine Semi-Custom-APU anyone? *lova*
 
28 nm bin ich nie von ausgegangen, wenn so ein Monster, dann 20 nm. Ich schließe mich aber Crashi an, mein Gefühl sagt mir, dass das nur eine Studie war. Oder aber vielleicht eine Semi-Custom-APU anyone? *lova*
Ok ich gestehe, ich hatte da eine Anfrage des Boinc-Teams laufen ...*lol*

Crashtest hat eigentlich recht ... so 560mm² sollten in 28nm reichen. Machts dann relativ plausibel *lol*

Im 3DC hab ich gerade 400mm² in 20nm geschätzt. Mal 1,41 Skalierungsfaktor = 564mm².

Machts für mich dann eher plausibel, da ich bei 20nm viel eher von DDR4 ausgehe.
 
Entweder ist es einfach nur ein Braindump von einem unterforderten Studenten
-
-
-
-
-
-
-
-
oder
-
-
-
-
-
Es geht in Richtung Kunde hat Design in Auftrag gegeben.
Denkbar wäre eine Firma mit riesen Rechenzentrum.
Google, Facebook, Amazon, Microsoft, NSA

Suchalgo auf GPU offloaden (google)
Riesenechelon (NSA, gerade jetzt, wo China so aktiv ist)
Amazon mietbare EC2-Cluster mit ordentlich GPU-Bums

Oder google benötigt ordentlich cloud gaming performance(Stichwort Radeon Sky, Nvidia Grid), um virtuelle Zusatzinformationen/content in google glass hinein zu rendern.
 
Und mit welchem Takt soll das rennen?
Trinity hat 100W bei 2 Modulen, 384 Shader bei 3,8GHz und eine Die Size von 246mm².
Richland bietet 300MHz mehr.
Das Teil hier wäre ja fast das 4 fache.
Würde in 28nm wohl knapp über 1GHz schaffen bevor es schmilzt?
In 20nm dann auch wohl kaum über 2GHz bei 125W TDP?
.
EDIT :
.

Für Google Glass wären dann doch viele kleine sparsame Jaguar APUs die bessere Lösung.
.
EDIT :
.

An anderer Stelle werden dem Bild 4096 ALUs zugesprochen.
Vielleicht verbaut AMD ja demnächst APUs auf Grafikkarten statt reinen GPUs.
Dann passten auch die spekulierten Daten halbwegs: 20nm, 400mm², TDP > 200W, 512Bit Memmory.
Fehlt nur GDDR5 statt DDR3.
Dann laufen die Games zukünftig nur noch auf der dedizierten Grafikkarte und der I7 darf sich als IO-Prozessor langweilen ;D
.
EDIT :
.

Über die Hypertransport Links wird dann Crossfire realisiert.
Vielleicht kommt dann nächstes Jahr noch Windows RED, welches die Ausführung von Programmen native auf AMD Grafikkarten unterstützt.
.
EDIT :
.

Das portieren von PS4 und x-Box Games wär dann ja auch ziemlich simple: Ein paar Routinen für I/O für den Hauptprozessor, der restliche Spielcode wird komplett auf der Grafikkarte ausgeführt.
 
amdfanuwe

Kann es sein das du sehr aufgeregt bist? Du brauchst dringend was zu crunshen.
 
Jup, hast recht. War letztesmal so aufgeregt, als die ersten Bulldozer Spekulationen rumgingen :)
Wenn so was von AMD kommen sollte, bin ich mal auf die Reaktionen von NVISIA und Intel gespannt.
 
Ist der Semiaccurate Beitrag die Originalquelle?

That would probably be enough to make something like this


Klingt eher nach einer Selbstzeichnung. In 20nm wäre das frühestens 2015 realistisch. DDR3 fände ich sehr enttäuschend.
 
Also möglich wäre es, aber möglich ist vieles, AMD hat ja genug Bausteine, die sie beliebig zusammenbauen können, und alles wäre irgendwie nutzbar und daher nicht sinnlos. Daß aber konkret dieses hier stimmt, ist reichlich unwahrscheinlich. Bisher ist bei AMD wenig bis nichts geleakt, was nicht absichtlich raus sollte. Die Shaderanzahl der GPUs der letzten Generationen stand oft erst wenige Wochen vorher fest. Sicher kann man beliebig viele Spekulationsvarianten aufstellen und hoffen, daß eine dann mit der Wahrheit übereinstimmt.

Aber immerhin wird im Spekuforum jetzt mal wieder über Chips spekuliert statt sich einfach nur sinnlos anzukeifen. ;)
 
Hypertransport (und HT-Assist) ist zwar drauf ... aber laut Legende deaktiviert ... wie auch HDMI und die Video-CODEC-Einheiten.

Spannend!

MFG Bobo(2013)
 
Vllt. machen sie auch nur eine Kleinserie/Prototyp für irgend eine Messe um zu zeigen was möglich wäre. Wollen ja ihre Custom Designs verkaufen.
 
Ich denke, die haben das Custom Design Team, weil sie Aufträge dafür haben. Man gründet sowas ja nicht einfach so aus Spaß...
Aber das Ding sieht komisch aus. Wäre eigentlich nur als HPC-Beschleuniger denkbar. Via OpenCL könnte man sowas ja auch auf einer Steckkarte nutzen. (edit: ich hätte erst crashtests Beitrag lesen sollen ...)
 
Zuletzt bearbeitet:
Aber nur weil man schon Kunden hat, muss man ja nicht aufhören "Werbung" zu machen. Außerdem wollen sie ja in den nächsten Jahren viel mehr Custom Designs verkaufen.

Vllt. will AMD mit dem Teil (bzw. ihren APUs) an die Spitze der Supercomputer kommen
 
Immerhin pushen sie die Möglichkeit, Custom Chips zu designen. Was Kleinserien ja teuer macht, sind die Fixkosten der Vorbereitung der Serienfertigung. Aber mit ihren fast beliebig zusammenwürfelbaren Bausteinen und Automatisierung können die drastisch gesenkt werden, so daß es durchaus in den Rahmen des finanziell Sinnvollen kommen kann, ein paar hunderttausend Spezialchips zu bauen.
 
Immerhin pushen sie die Möglichkeit, Custom Chips zu designen. Was Kleinserien ja teuer macht, sind die Fixkosten der Vorbereitung der Serienfertigung. Aber mit ihren fast beliebig zusammenwürfelbaren Bausteinen und Automatisierung können die drastisch gesenkt werden, so daß es durchaus in den Rahmen des finanziell Sinnvollen kommen kann, ein paar hunderttausend Spezialchips zu bauen.
Jein .. wohl eher auch nicht. Wenn ich mich recht erinnere, dann ist das teure die Maske ... die allein kostet einige Milliönchen. Sparen tut man halt nur an der Entwicklung, da das Zusammenkleistern der IP-Blöcke nicht mehr so kompliziert ist. Da reicht vermutlich ein kleines Team. Zumindest solange man keine Sonderwünsche ala FD-SOI Prozess anstatt Bulk oder so hat.
 
Der Vorteil AMDs liegt halt in den IP-Blöcken.
ARM64, X86 low Power, x86 High Performance, High-End Parallel Prozessing Einheiten auch für GPU Zwecke einsetzbar, skalierbares High End Memmory Interface, PCIe, USB, etc.
Frei skalierbar nach Verbrauch oder Leistung, viel GPU oder viel CPU.
OK, Intel baut performantere CPU Kerne und hat einen Fertigungsvorsprung.
Im lowest Power und Funktechnik haben andere bessere Module.
Denke mal, bei Intel wird es teurer einen PC kompatiblen Prozessor mit eigener integrierter IP zu bekommen.
Zudem habe ich Rory so verstanden, dass er nicht an Kleinserien interessiert ist.
PS4, XBox mit jeweils erwarteten 10 Mil. Chips/Jahr, einmal Arbeit in die Entwicklung investieren und anschließend ein paar Jahre Gewinne einstreichen. Kleinserien bringen keine Nachhaltigkeit.
 
Zurück
Oben Unten