AMDs "Excavator" - 4. Modul Generation Spekulation

aber z.B. in BF4 schlägt sich der 8350 dank Parallelisierung auch ohne Mantle sehr gut, v.a. unter der Berücksichtigung der viel geringeren Transistorenzahl.
Na da schlüge sich auch ein Octo-Jaguar recht gut, bei weniger Stromverbrauch ;-)
Und gerade mit oben genannten Speculative Multithreading und WaveScalar
Davon halte ich nicht viel, interessante Forschungsprojekte, mehr nicht. Speculative Multithreading geht mit den neuen, getrennten Decodern wie sie Kaveri eingeführt hat, auch gar nicht mehr.
 
Na da schlüge sich auch ein Octo-Jaguar recht gut, bei weniger Stromverbrauch ;-)
Mit hohem Takt mit Sicherheit irgendwie möglich, immerhin geht's ja auch auf den Konsolen einwandfrei (Klar haben die ein Leistungsplus, aber ich hab ja auch "mit hohem Takt" geschrieben) allerdings haben die ja wahrscheinlich noch weniger Transistoren (hab keine Zahlen gefunden), obwohl sie nicht in der Modulbauweise wie Piledriver gebaut sind. Die war ja gerade ein Vorteil in dem Punkt, weil sie Transistoren bzw. Die-Fläche und somit Volterhöhungen spart neben einer guten 1-4-Kern-Performance durch die 4 Module (Ist der Stromanstieg nicht quadratisch zur Diefläche? In dem Fall muss es doch im HighEnd-Bereich das Ziel sein eine gute Leistung pro Transistor zu bekommen und im Mobile-Bereich eine gute Leistung pro Watt).
Was ich damit sagen will: Man kann einen Jaguar-Achtkerner nicht mit einem 8350 vergleichen wegen den sehr verschiedenen Architekturen und der 8350 ist für seine Transistorenzahl sehr gut. Man stelle sich Piledriver auf 2 Mrd. Transistoren oder mehr hochgerechnet vor! (ohne Betrachtung des Stromverbrauchs; in der 22nm-Intel-Fertigung wär der auch geringer)
Sagt mir wenn ich falsch liege, aber Globalfoundries ist glaube ich zur Zeit DAS Problem für AMD im Bereich Prozessoren (auch wenn, wie bereits geschrieben, bei Bulldozer nicht alles perfekt ist)
 
Der neue CEO hat ja angekündigt nicht Intel nicht überallhin hinterherzulaufen zu wollen, sondern das zu machen, was AMD gut kann.
Nicht ganz so.
"What's most important is that you always listen to the customer," Read said. "When the customer speaks, the industry speaks, you've got to listen."
Zudem wurde mal seitens AMD geäußert, dass sie sich auf wachstumsstarke Bereiche mit guten Gewinnaussichten konzentrieren wollen.
Zum einen also Kundenorientiert, zum anderem pickt man sich das raus, was langfristig Gewinn verspricht.
Da gehört PC und High End eben nicht dazu.
AMD kann nicht alles auf einmal machen, setzt also dort prioritäten, wo am meisten abfällt.

Jein .. Intel stagniert nicht, aber sie investieren halt in IPC, die man ohne Spezialcode, sprich 256bit FMA nicht sieht.
AMD investiert auch in IPC, die man ohne Spezialcode, sprich HSA, nicht sieht. 856 GFlops im Kaveri sind schließlich nicht zu verachten. Nur fehlt es noch an Software, die die auch richtig nutzen.

Wenn ich dann lese:
Mit AVX-Code, nämlich mit der hoch opimierten Version des Linpack-Benchmarks aus dem Intel-Compiler 2011 SP1, liefert der Core i7-3960X 141 GFlops, also 89 Prozent seines theoretischen Potenzials von 158 GFlops.
dann frage ich mich, welcher Chip High-End ist.
 
Das ist doch alles Käse mit dem es-gibt-keine-großen-CPUs-mehr.

1.) gibt es 100%ig APUs mit mehr als 4Threads in 14nm
2.) glaube ich nicht, dass AMD das Segment der Großserver einfach so kampflos aufgibt, obwohl man evtl. bei 14nm vom Prozess her wieder rankommt, das ist einfach Quatsch.

Man kann beides und wird beides machen, wenn man wieder dazu in der Lage ist, also bei 14nm.
Jetzt in 28 noch damit anzufangen lohnt sich einfach nicht und alle alten Projekte sind gestorben, es ist ganz einfach.

Da AMD nichts hat, sagt natürlich das Marketing von denen auch, dass man es nicht braucht. Wenn man wieder was hat, braucht man es dann plötzlich wieder ganz dringend. Wie kann man immernoch auf dieses Spiel hereinfallen... Wenn man es kann, wird man es tun, denn man will Geld verdienen, ganz einfach.
Und von solchen völlig idiotischen Aussagen "dieses ersetzt jenes" halte ich überhaupt nichts. HT ist einfach ne andere Baustelle als Freedom Fabric. Wenn man das HT-Protokoll wieder nutzen kann, wird das auch wieder ausgegraben. Man kann auch keinen x86er durch einen ARM ersetzen. Theoretisch geht immer alles, praktisch dann aber irgendwie nicht.
Handys haben nicht alle Festnetztelefone ersetzt, Tablets haben nicht alle Rechner ersetzt, Netbooks und Ultrabooks haben nicht alle Notebooks ersetzt... alles Dummfuggelaber ohne Substanz und pures Marketing dieses "das ersetzt jenes".
 
Zuletzt bearbeitet:
Wenn man es kann, wird man es tun, denn man will Geld verdienen, ganz einfach.

Da fehlt noch "und wenn es gewinnversprechend ist".
Solange andere Bereiche mehr Gewinn versprechen, wird man sich auf andere Bereiche konzentrieren. Ganz einfach
 
Microserver -> Microgewinn
Bigserver -> big Gewinn

Es ist absolut sinnvoll was hot gesagt hat.
Genau so sehe ich das auch.

Das sowohl alsauch wäre eine gute Strategie.
Nur ein Standbein ist erst recht risikoreich.
 
Lieber viele Microgewinne als wenige big Gewinne.
Früher hatte AMD doch nur ein Standbein, High-End Serverprozessoren, die dann auch im Desktop verkauft wurden.
Jetzt sattelt AMD um auf viele Standbeine und es ist auch nicht recht? Vor allem, da sich das alte Standbein nicht mehr als profitabel erweist.
 
Denn Bulldozer war ja an sich eigentlich ziemlich gut bis auf die langsamen Caches und ein paar weitere Einzelheiten, aber z.B. in BF4 schlägt sich der 8350 dank Parallelisierung auch ohne Mantle sehr gut, v.a. unter der Berücksichtigung der viel geringeren Transistorenzahl.

Die war ja gerade ein Vorteil in dem Punkt, weil sie Transistoren bzw. Die-Fläche und somit Volterhöhungen spart

Was ich damit sagen will: Man kann einen Jaguar-Achtkerner nicht mit einem 8350 vergleichen wegen den sehr verschiedenen Architekturen und der 8350 ist für seine Transistorenzahl sehr gut.

du sprichst von der guten geringen transistor anzahl und der dadurch niedrigeren leistungsaufnahme.

also der FX8150 war im vergleich zu dem Sandy i7 sehr schlecht was leistung pro watt in battlefield 4 angeht, obwohl er 8 monate nach Sandy auf den markt kam.

selbst der vishera sieht noch extrem schlecht beim selben vergleich gegen den sandy bridge i7 aus.

(ohne Betrachtung des Stromverbrauchs; in der 22nm-Intel-Fertigung wär der auch geringer)

daher habe ich jetzt bewusst erstmal mit sandy verglichen.

doch selbst im vergleich mit dem Phenom II X6 sieht der FX8150 zambezi schlecht in BF3 tests aus. leistung pro watt ist in etwa gleich gut in dem game, und das trotz fertigungs vorteil.

vergleicht man jetzt vishera mit Ivy bridge sieht es wiederum noch viel katastrophaler aus.

also iergentwie scheinen die weniger transistoren die leistung so weit hinunter gezogen zu haben, das die frequenz wieder so stark erhöht werden musste, das der architektur vorteil relativiert wurde.
 
APU in Ehren aber die braucht niemand in absehbarer Zeit.
Intels Prozessoren sind zu 99% APUs. AMD hat mittlerweile auch weit mehr als die Hälfte an APUs im Portfolio. APUs sind DIE Massenprozessoren, der Volkswagen der Prozessortechnologie. Sie braucht vielleicht niemand. Aber sie sind die beste Lösung für über 90% des Marktes.

Wo kommt ein 1,3GHz ARM Prozessor nur in die Nähe eines 4GHz x86?
Wo braucht ein 4 GHz x86 so wenig Strom wie ein 1,3 GHz ARM? Cyclone zeigt, dass man auch die ARM Architektur ordentlich aufbohren kann für jede Menge Performance pro Kern. Und Taktpotenzial sollte auch genügend vorhanden sein. Die Pipeline ist nicht gerade sehr kurz. 1,3 GHz gibt's ja nur für Tablets. Für typische 45-95W Desktops oder Server sollte auch locker weit mehr Takt drin sein.

Microserver -> Microgewinn
Bigserver -> big Gewinn
Vielleicht pro Server. Aber wie sieht es denn bei der Gesamtmenge aus?
 
du sprichst von der guten geringen transistor anzahl und der dadurch niedrigeren leistungsaufnahme.

also der FX8150 war im vergleich zu dem Sandy i7 sehr schlecht was leistung pro watt in battlefield 4 angeht, obwohl er 8 monate nach Sandy auf den markt kam.

selbst der vishera sieht noch extrem schlecht beim selben vergleich gegen den sandy bridge i7 aus.



daher habe ich jetzt bewusst erstmal mit sandy verglichen.
Hab ja extra geschrieben, dass bei Bulldozer auch nicht alles perfekt ist, aber dass es der richtige Weg war.
Z.B. Caches: http://www.golem.de/news/mit-neue-c...arsamere-und-schnellere-cpus-1403-105282.html Da sieht man, was da alles möglich ist!
Zudem: Seit wann ist 32nm Intel 32nm Globalfoundries??? Sieht man schon an den Die-Flächen, dass man die nicht vergleichen kann!!
AMD hatte leistungstechnisch nur die Möglichkeit die Leistung zu steigern durch höheren Takt, wofür Bulldozer übrigens ausgelegt ist. Natürlich ist das schlecht für den Stromverbrauch, aber transistorensparend und leistungstechnisch eine gewisse Steigerung. Also hab ich nicht von der "guten geringen transistor anzahl und der dadurch niedrigen leistungsaufnahme" gesprochen, sondern von den Vorteilen gegenüber den Alternativen (gigantisches Die, hoher Preis, noch höherer Stromverbrauch) und somit von der wirklich nicht schlechten Architektur (bis auf ein paar Fehler wie langsame Caches)
 
Bei CB hat sich wohl einer die Papers zu dem "MIT-Caches" besorgt und meinte das funktioniert nur wenn viele(64+) CPU-Kerne vorhanden sind. Gerade ein High-End Design zu verbessern ist aufwendig und teuer. Der Prozess muss Optimal sein und der massive Einsatz von Designtools hilft eher nicht, sonder viele Schaltungen müssten von Hand optimiert werden. Betrachtet man dann das Gesetz des sinkenden Grenzertrags, hat sich AMD vielleicht mit Bulldozer übernommen.
GF ist sicherlich auch nicht der optimale Fall, da geht überall was verloren an theoretischer Leistung.

Ich halte die Vermutungen über das "Katzen-Design" das Feld von unten aufzurollen für Wahrscheinlich, manchmal brauchen gute Ideen halt länger zum reifen.
 
Opteron-Server & Highend WS gibts von:
hp
DELL
Tyan
IBM
...

be den letzteren eher auf Anfrage aber geben tuts die noch, nur sollte AMD endlich die existierenden OpteronES mit integ. HT & PCIe für die neuen Sockel rausbringen - es reicht nicht die nur in Papierform öffentlich zu machen ...
 
Hab ja extra geschrieben, dass bei Bulldozer auch nicht alles perfekt ist, aber dass es der richtige Weg war.

wenn es der richtige Weg war, werden sie nach Excavator bestimmt weiter an der Architektur arbeiten.

Seit wann ist 32nm Intel 32nm Globalfoundries???

schon klar. leider hat amd halt bis heute nichts gleichwertiges, und das obwohl intel nächstes jahr schon 14nm bringt.

AMD hatte leistungstechnisch nur die Möglichkeit die Leistung zu steigern durch höheren Takt, wofür Bulldozer übrigens ausgelegt ist. Natürlich ist das schlecht für den Stromverbrauch, aber transistorensparend und leistungstechnisch eine gewisse Steigerung.

im vergleich zu einem fiktiven Phenom II in 32nm ist die neue architektur nicht wirklich ein fortschritt in der ersten ausbau stufe.

warum brachte die architektur nur so einen kleinen vorteil ?

Vorteilen gegenüber den Alternativen (gigantisches Die, hoher Preis, noch höherer Stromverbrauch) und somit von der wirklich nicht schlechten Architektur (bis auf ein paar Fehler wie langsame Caches)

also ich glaube die BD entwicklung war teurer als die neuen befehlssätze in einen phenom zu klatschen und ihn zu schrinken. und auch wenn ein phenom Die dann teurer gewesen wäre als ein 4 moduler, so wäre es lohnenswert für amd gewesen weil die 32nm phenoms schneller gewesen wären.

ich spreche nicht von diesen apu phenoms in 32nm.

wobei wir wieder beim thema carrizzo sind.

wer weiß wie gut die steamroller in 28nm wären, wenn amd sie ohne igpu produzieren lassen würden.

wer weiß, vielleicht gibts dann ja bei Excavator eine doppelte überraschung wenn amd die in 28nm ohne igpu produzieren wird.

denn dann wäre der direkte vergleich zu einem 4 modul excavator ohne igpu direkt mit dem alten vishera 4 moduler.

ich glaube der von mir angesprochene fiktive 4 modul exvavator ohne igpu hätte bei 500 mhz mehr, weniger stromverbrauch, und weniger spannungsbedarf, und gut 20% mehr ipc ohne die neuen befehlssätze mit einzubeziehen.
 
AMD dürfte nächstes/übernächstes Jahr auch soweit sein mit 14nm, 20nm SHP (planar) fällt ja aus bekannten Gründen aus. Das erste Tapeout in dem Prozess gabs ja offenbar gerüchteweise schon.
 
Zuletzt bearbeitet:
also wenn amd 14nm im jahr 2016 serien reif hat, können die doch auch locker 8 moduler ohne igpu, als auch 4 modul apu,s anbieten.

das wäre cool, vorraus gesetzt der takt bleibt bei 5 ghz bei unter 90W TDP.
 
im vergleich zu einem fiktiven Phenom II in 32nm ist die neue architektur nicht wirklich ein fortschritt in der ersten ausbau stufe.

warum brachte die architektur nur so einen kleinen vorteil ?
Wieso bringt Haswell einen Rückschritt in vielen Benchmarks? In Spielen ist der 4770k durchschnittlich 1% langsamer und braucht ein paar Watt mehr Strom als der 3770k. Und Intel hat genügend Geld, was sie in die Entwicklung von Prozessoren stecken könnten...
Ist halt erst die erste Ausbaustufe! Da läuft halt nicht alles rund. Außerdem kommt es immer auf die Benchmarks an, da wirken sich Architekturunterschiede unterschiedlich aus. Außerdem: Wie gesagt war bei Bulldozer nicht alles gut, z.B. die Caches waren zu langsam. Und er war (architektonsich) seiner Zeit voraus: http://www.extremetech.com/computing/100583-analyzing-bulldozers-scaling-single-thread-performance In Mantle liefert v.a. der 8350 eine gute Performance (oder insgesamt bei 8-Kern-Auslastung)

---------- Beitrag hinzugefügt um 15:45 ---------- Vorheriger Beitrag um 15:34 ----------

also wenn amd 14nm im jahr 2016 serien reif hat, können die doch auch locker 8 moduler ohne igpu, als auch 4 modul apu,s anbieten.

das wäre cool, vorraus gesetzt der takt bleibt bei 5 ghz bei unter 90W TDP.
1. Ich bezweifle, dass 14nm in 2016 schon serienreif ist, zur Zeit hat Globalfoundries ja noch nicht einmal 20nm-Chips in der Massenproduktion.
2. 4-Modul-APUs halte ich in nächster Zeit für unwahrscheinlich, weil DDR4 gerade mal 30% Leistungszuwachs bringt (da senkt AMD lieber den Takt/Stromverbrauch). Wenn es GDDR5/6-Speicherriegel gibt, kann AMD das machen :]
3. Ein Piledriver-4-Moduler mit Turbo 5 Ghz hat gerade eine 220W-TDP, so drastisch können die den Verbrauch auch nicht drücken (kommt auf 14nm an, aber 28nm ist nicht viel stromsparender), zumal so hohe Taktraten anfangs gar nicht möglich sind.
 
3. Ein Piledriver-4-Moduler mit Turbo 5 Ghz hat gerade eine 220W-TDP, so drastisch können die den Verbrauch auch nicht drücken (kommt auf 14nm an, aber 28nm ist nicht viel stromsparender)

ja da waren meine gewünschten 90w zu utopisch muss ich einsehen.

bei 2-3 modulern wäre das aber locker drin denke ich.

zumal so hohe Taktraten anfangs gar nicht möglich sind.

mein Zambezi von September 2011 macht bei standard v Core schon 4,6 ghz
bei leichter v core erhöhung auch schon 5 ghz unter luft.

also wenn der neue 32nm prozess schon für 4,5 ghz bzw 5 ghz OC @ Air ausgereicht hat, sollte das klappen.
 
also ich glaube die BD entwicklung war teurer als die neuen befehlssätze in einen phenom zu klatschen und ihn zu schrinken. und auch wenn ein phenom Die dann teurer gewesen wäre als ein 4 moduler, so wäre es lohnenswert für amd gewesen weil die 32nm phenoms schneller gewesen wären.
Natürlich war die Entwicklung teurer da es eine Langfristige Architektur ist: CMT
Das lustige an CMT ist, dass die Idee von einem Intel Mitarbeiter war, dessen Idee nicht von Intel umgesetzt wurde. *buck*

Die FPU vom Phenom II kann keine 256Bit Befehle, BD kann 128 und 256Bit je nach dem was die Software will/nutzt.

Der Cache vom Bulldozer ist langsamer im Vergleich zu Intel, aber schneller und größer als der Phenom II Cache.

5GHz beim Excavator würde bedeuten keine Verbesserungen, ich tippe mal auf ein 4x4 Modul oder 5 Module a 512Bit.
 
Da die 14nm ja eigentlich 20nm als Grundlage haben wird das mMn recht zügig gehen. Die FinFETs sind ja schon recht lange in Entwicklung. Das ist ja nur z.T. ein neuer Prozess. Das sind ja keine echten 14 bzw. 16nm, sondern Mischprozesse.
Aber es schaffen wohl beide Foundries keine 20nm vor 2015 in Serienproduktion zu bringen (LPM-Prozesse, nennt TSMC ja auch SoC versteht sich, kein HP, SHP oder HPM, also nix über 20W). Nur Apple möchte offenbar in Risc-Produktion gehen. Qualcomm erwartet die 20nm SoC auch erst 2015. Das ist der erste Schritt. Als nächstes bringen beide Foundries ihre FinFETs in Stellung, Serienreife dürfte bei GloFo schneller gehen, weil AMD hier kräftig mitmischen wird. Ich glaube nicht, dass die noch einen Prozess dem Zufall überlassen. Ich bin davon überzeugt, dass wir von AMD noch in 2015 eine große Exc.-14nm-APU sehen werden, die auch für FF-Server geht.
 
Zuletzt bearbeitet:
Der Cache vom Bulldozer ist langsamer im Vergleich zu Intel, aber schneller und größer als der Phenom II Cache.
Stimmt nicht ganz. Langsamer als Intels ja, größer ja, aber langsamer. http://www.extremetech.com/computing/100583-analyzing-bulldozers-scaling-single-thread-performance/3
Da sieht man's. Man sieht auch, wie gut Bulldozer bei Optimierung auf die Architektur sein könnte (auf den anderen Seiten).
@Night<eye> : Wär mir da nicht so sicher, ob sich kommende Prozessoren so gut übertakten lassen, denn der 32nm-Prozess war ausgelegt für HighEnd, was bei 14nm unwahrscheinlich ist. Außerdem kommen erstmals von GF 3D-Transistoren und wahrscheinlich 3D-Speicher, also geschichtet. Insgesamt viel technischer Fortschritt, bei dem ich nicht glaube, dass sowas wie Übertaktbarkeit gleich bleibet. Und ich hoffe eher, dass AMD 125W- und 220W-Modelle rausbringt, die mit den Intel-Topmodellen konkurrieren können (oder sogar schlagen?), statt 90W-Modelle, die man sogar in Notebooks einbauen könnte (sofern APU, bei nur CPU müsste ne Grafikkarte draußenbleiben)
 
@Impergator
Stimmt, den kleinen L1 Cache habe ich nicht bedacht!
Die Analyse ist von 2011, da war weder der AGESA Code Fehlerbereinigt, noch die Software weit genug um zwischen Thuban und Zambezi zu unterscheiden.
Aber gut 1:0 für dich! :)
 
Ich bin davon überzeugt, dass wir von AMD noch in 2015 eine große Exc.-14nm-APU sehen werden, die auch für FF-Server geht.
Deine Überzeugung in Ehren, aber hast Du dafür wenigstens ein paar kleine Indizien, dass es so kommen könnte?
Meines Wissens siehts da zappenduster aus. Für die Gegensansicht, dass nichts mehr kommt, gibts dagegen einige Indizien ...

Von daher darf man bei nüchterner Betrachtungsweise leider nicht mehr viel von der Bulldozerlinie erwarten.

@Windhund/Crashtest:
Klar gibts sicherlich noch ein paar mehr Anbieter. Aber was Sache ist, sieht man doch daran, dass Windhunds Händler eher unbekannt ist und Crashtest schreibt schon selbst, dass man dafür extra anfragen müsse. Wieso man das muss ist auch klar, die Mehrzahl will Intel. Wenn jetzt die Haswell-Xeons kommen, dann ist AMD komplett abgemeldet.

Vorher war schon der Stromverbrauch schlechter, aber man konnte bei der theoretischen Rechenleistung (Flops), die man bei HPC mit Spezialcode durchaus ausnutzen kann, wg. FMA noch mithalten. Aber mit Haswell und dessen 256FMAs wirds zappenduster. Da sprichts nichts mehr für nen AMD-Sever, abgesehen von Sympathie und Langzeitmarktbetrachtungen (Monopolmärkte sind bekanntermaßen schlecht).

Aber sowas gibts in Managementetagen nur sehr sehr selten. Da zählt sonst nur Leistung/€. Alles andere schmälert die Boni und aus Langzeitsicht hat man später sowieso die Firma gewechselt ^^
 
Zurück
Oben Unten