GPUs dank HBM Speicher bald mit Sockel?

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Dank des Einsatzes von HBM-Speicher direkt auf auf dem Interposer sind heutige/zukunftige Grafikkarten sehr kompakt herstellbar. Die meisten Bauteile auf dem eigentlichen Grafikboard sind nur noch für die Spannnungsversorgung und die Anbindung des PCIe und der Monitor-Ausgänge. Gerade letztgenannte werden aber dank der integrierten GPUs in APUs aber auch schon auf den meisten Boards verbaut und mit AM4 sind diese für alle zukünftigen AMD-Boards vorgesehen.

Wäre es nicht langsam an der Zeit, dass GPUs auch einen Sockel tragen und direkt auf dem Mainboard eingesetzt werden? Wie ist eure Meinung dazu, werden wir sowas in absehbarer Zeit sehen (vielleicht zuerst für HPC-Anwendungen)? Spricht irgendwas gravierend gegen diese Idee?
 
Daran glaube ich vor allem im Desktop Bereich nicht so recht denn dafür müßte der Sockel aufgrund des Strombedarfs und der dafür nötigen Stromversorgungspins zu gross ausfallen. Im Mobilen Bereich kostet es wiederum zu viel Bauhöhe was beim Trend zu immer dünneren Laptops wiederum mehr als hinderlich ist.
Möglich wäre es aber durchaus allerdings dann eher als Nieschenprodukt in Form einer CPU-GPU Kombi wie den APUs.
 
Spricht irgendwas gravierend gegen diese Idee?
Ja. Die Kosten und der Formfaktor der mehr Platz benötigt. Notebooks und AiO kommen dafür sowieso nicht in Frage und die Desktop-GPU OEMs werden darin keinen Mehrwert sehen dann so wie Mainboardhersteller Sockelkompatibilität für weitere Generationen zu pflegen. Das fest auflöten garantiert mehr Umsatz beim GPU-Wechsel als man dann mit einem gesockelten Chip verdienen kann den man in sein altes GPU-Board steckt.
 
Hinzu kommt ja auch das man bei der Stromversorgung der GPUs viel Spielraum hat. Will man das mit berücksichtigen müßte man sie entsprechend überdimensionieren um möglichst vielen gerecht zu werden was wiederum auf Kosten der Effizienz und des Preises geht. Eine gesockelte CPU kann man ja noch mit der großen Auswahl an Anschlussmöglichkeiten bei dessen zentraler Rolle rechtfertigen aber eine gesockelte GPU?
 
Und es gibt (noch) mehr als nur einen GPU Hersteller, wobei garantiert kein einheitlicher Sockel möglich wäre. Das wäre alles unflexibel.
 
Mit vollem HSA würde es jeder CPU-Sockel tun. Solange der multi-cpu fähig ist und Monitoranschlüsse hat.
 
Interessant wird es dadurch, dass außer der Spannungsversorgung und dem Sockel ja nichts zusätzlich auf dem Board benötigt würde. Für den Einsatz in nicht-AMD-Systemen kann man ja einfache PCIe-Karten vorsehen, die nicht die Leitungen durchschleifen, so wie jetzt M2-PCIe-Adapter.

Vor allem wenn man mal an AMDs Torrenza zurück denkt, würde das als HPC-Beschleuniger durchaus Sinn machen. nVidia bringt mit NV Link ja auch eine proprietäre High-Speed-Verbindung.

MXM bringt ja schon wieder viel zu viel mit, das wird mit HBM ja fast alles auf dem Chip-Package verbaut.
 
Daran glaube ich vor allem im Desktop Bereich nicht so recht denn dafür müßte der Sockel aufgrund des Strombedarfs und der dafür nötigen Stromversorgungspins zu gross ausfallen.
Der Strom muß ja auch jetzt schon durch die Lötverbindungen in die GPU rein. Der zusätzliche Mehrbedarf durch den Speicher sollte überschaubar sein.
Ich sehe eher die große Bandbreite des Strombedarfs als Problem. CPUs für Desktop-Systeme innerhalb eines Sockels bewegen sich z.B. zwischen 35...100W (intel), bzw. 95..125W oder 45...95W (AMD). Bei GPUs geht das locker von 50...250W. Jemand, der nur eine kleine GPU braucht, muß also die Stromversorgung für die fetten Karten mitkaufen. Gleiches Spiel bei der Kühlung. Es müßte der Platz für einen 250W-Kühler vorgesehen werden.
 
Im Prinzip gibt es das ja schon als COM (Computer on Modue) mit AMD APU-Hardware:
http://www.congatec.com/de/industri...gatec-advancing-next-gen-medical-devices.html
With the introduction of the SoC version of its G-Series processors, AMD has set a new milestone in the integration of x86 processor technology. Designed for embedded applications, they offer long-term availability of five plus two years. Users benefit from high graphics performance and open programmability in a small footprint. congatec has integrated these processors on Computer-on-Modules (COMs) in a move to round off the company’s range of high-graphics, low-power modules for compact form factors.

csm_TCG_new_BlockDiagram_f846927a38.gif
 
Wäre nicht auch eine Grafikkarte mit Sockel sinnvoll?

So könnten die Leute, die sich jedes Jahr eine neue Graka kaufen, sich einmal die Platine kaufen und einfach jedes Mal eine neue GPU + eventuell größerem Kühler besorgen.
Die Spannungsversorgung müsste natürlich dann passen und solange kein neuer Standard wie etwas PCIe 4.0/HDMI/DP anstehen, kann man das "Board" über mehrere Jahre verwenden.
Das sollte die Kosten doch deutlich senken.
 
Wäre es nicht langsam an der Zeit, dass GPUs auch einen Sockel tragen und direkt auf dem Mainboard eingesetzt werden? Wie ist eure Meinung dazu, werden wir sowas in absehbarer Zeit sehen (vielleicht zuerst für HPC-Anwendungen)? Spricht irgendwas gravierend gegen diese Idee?

Intel scheint genau das mit den neuen Xeon Phi “Knights Landing” vor zu haben:

http://vrworld.com/2015/11/17/intel-moves-to-attack-nvidia-quadro-amd-firepro-market/ schrieb:
Thus, this is not a PCIe, discrete product which most news organizations are showing pictures of, this is a computer equipped with two sockets – one will feature Xeon Phi chip, while the other socket will probably be a single Xeon E3 that provides the display output (KNL does not support display outputs).

Wenn das Konzept vom Markt angenommen wird, wird AMD sicherlich mit HBM Firepro Chips nachziehen, im Consumerbereich jedoch wohl eher nicht, man möchte es sich ja mit den Grafikkarten-OEMs nicht total versauen und ja auch weiterhin als Steckkarte auf Intel Boards Verwendung finden können...
 
Nur ist Xeon Phi ja keine GPU. Es sind x86 Einheiten in Silvermont Kernen.
 
Wäre nicht auch eine Grafikkarte mit Sockel sinnvoll?

So könnten die Leute, die sich jedes Jahr eine neue Graka kaufen, sich einmal die Platine kaufen und einfach jedes Mal eine neue GPU + eventuell größerem Kühler besorgen.
Die Spannungsversorgung müsste natürlich dann passen und solange kein neuer Standard wie etwas PCIe 4.0/HDMI/DP anstehen, kann man das "Board" über mehrere Jahre verwenden.
Das sollte die Kosten doch deutlich senken.
Wie stellst Du Dir das vor?
Eine leere Grafikkarte, die quasi nur die Stromversorgung bereitstellt und dort setzt man dann die GPU rein?
Erscheint mir zu komplex, dann müssen ja Mainboard, Grafikboard und GPU jeweils immer schön miteinander können, was ja heute bereits schon manchmal bei Mainboard+Grafikkarte scheitert.
Außerdem verlängert das ja eher die Signalwege und das dürfte nicht gewünscht sein.
 
Nur ist Xeon Phi ja keine GPU. Es sind x86 Einheiten in Silvermont Kernen.

Autsch, ja, dachte immer, ohne mich näher mit den Phis beschäftigt zu haben, dass sie als PCIe Karte selbstverständlich GPUs für parallele Berechnungen sind, getreu dem Motto: Bestimmt irgendwas auf Basis der Iris GPU-Architektur... Trotzdem könnte man das Dual Socket Konzept sehr gut mit nem Zen Opteron und nem AMD HBM Firepro Chip übernehmen... :)

Edit: Naja, letztlich ist eine Phi ja auch tatsächlich eine GPU, nur eben auf Basis von x86-Kernen! :)
 
Zuletzt bearbeitet:
Naja, Larabee war mal als GPU geplant, aber da hat Intel den Aufwand unter- bzw. seine Fähigkeiten überschätzt. Zumindest scheint sich der Aufwand nun in Form der aktuellen Knights einigermaßen auszuzahlen (waren ja nur ein paar Milliarden Entwicklungskosten).

Bezüglich des Sockelns von GPUs wäre ich insofern skeptisch, als Sockel momentan tendentiell Mangelware werden. Bei Notebooks muss man die aktuell dank Intels Ultrabook-Strategie schon mit der Lupe suchen. Im "Desktop_bereich" (Also da wo man einen Monitor an eine Kiste anschließt) machen die kleinen NUC-artigen Geräte den Sockeln zunehmend den Garaus.

Einzig, wie schon erwähnt, im Serverbereich sind Sockel noch envogue. Dank der APUs (da kommen ja eh Zens mit dicker GPU) wird AMD allerdings sowieso mit den APUs eine Kombination aus Serieller und Paralleler Leistung haben. Intel macht das halt momentan noch getrennt. Ich denke die nächsten Knights werden auch serielle Kerne mitbringen.
Wenn ich AMD wäre würde ich mich aber mit den APUs mehr auf Beschleunigerkarten konzentrieren, damit man bestehende Server umrüsten kann. Ich hatte eigentlich schon für Kaveri mit Testballons in Form von PCI-Express-Karten gerechnet.
 
Edit: Naja, letztlich ist eine Phi ja auch tatsächlich eine GPU, nur eben auf Basis von x86-Kernen! :)
Xeon Phi stellt AVX Instruktionen bereit für parallelen Workload. Das ist kein GPU Code. Zudem können sie kein Bild ausgeben.
 
Zudem können sie kein Bild ausgeben.
Das müssen sie doch auch nicht. Eine GPU kann schließlich auch zusätzlich zur normalen Grafikkarte zum Einsatz kommen und diese nur bei der Berechnung der Bilder unterstützen. Bei SLI/Xfire gibt ja auch nur eine der Karten das Bild aus.
 
Das müssen sie doch auch nicht. Eine GPU kann schließlich auch zusätzlich zur normalen Grafikkarte zum Einsatz kommen und diese nur bei der Berechnung der Bilder unterstützen. Bei SLI/Xfire gibt ja auch nur eine der Karten das Bild aus.
Ja das kann sie - nennt man aber alles, das auch als Co-Processor dient deshalb ebenfalls eine GPU? Die Logik ist nicht schlüssig in diesem Argument. Der Phi ist keine GPU. Er kann keinen GPU-Code ausführen sondern x86 Code.

http://www.nextplatform.com/2015/08/28/intel-stacks-knights-landing-chips-next-to-xeons/
intel-knights-landing-block.jpg
 
Ja das kann sie - nennt man aber alles, das auch als Co-Processor dient deshalb ebenfalls eine GPU? Die Logik ist nicht schlüssig in diesem Argument. Der Phi ist keine GPU. Er kann keinen GPU-Code ausführen sondern x86 Code.
Mir ging es lediglich darum, das Argument mit der Bildausgabe zu entkräften.
Beim Rest gebe ich Dir Recht - wenn nichts grafisches berechnet wird, dann kann man es schwer GPU nennen.
 
Auch hier ist es ein Unterschied ob eine GPU in einer Konfiguration kein Bild ausgeben MUSS oder ob der Chip es schlicht nicht KANN.
 
Aha. Diese Frage stellte sich mir in dem Zusammenhang gar nicht erst.
 
Die Sache mit dem GPU-Sockel treibt mich um, seit die Sache mit AMDs neuem Interconnect GMI in der Welt ist. Das heißt, dass AMD ins alte Fahrwasser aus Hypertransportzeiten zurückkehrt, also mehrere Sockel (oder Dies) verbunden über einen leistungsfähigen Interconnect.

Die Preisfrage die sich stellt ist die, wie "stark" AM4 wird. Wird das eine Art Sockel C32-Nachfolger, werden also Pins für den 2P-Betrieb bereit gestellt oder nicht?
Heutzutage ist es kein Problem die Beschaltung von Pins umzuschalten, eine 1P-Version des AM4 könnte damit z.B. ~40 PCIe-Lanes direkt anschließen. Es wäre nicht wie in alten Zeiten, wo 2-3 Hypertransportanschlüsse auf dem Die nutzlos brach liegen, da nur einer für die Anbindung des Chipsatzes genutzt wird.

Die GPUs werden das gleiche Interfaces bekommen, also ebenfalls zw. PCIe und GMI umschaltbar sein, um APUs in einem Gehäuse aus 2 Dies zu ermöglichen.

Gäbe es jetzt eine GPU im AM4-Gehäuse könnte man diese in ein 2P-Brett stecken. Grafiksignale sind in der AM4-Spezifiatkion wegen den APUs sowieso vorgesehen.
Als Bonus gäbs noch die Möglichkeit, dass GPU und CPU nicht über PCIe sonder dann über GMI kommunizieren könnten. Das gäbe eventuell Latenzvorteile - in der Gamerfraktion gehts ja um jede Nanosekunde.

Hauptnachteil ist wie schon erwähnt wurde die Stromversorgung. Das Mainboard müsste dann die Spannungswandler für ~300W bereitstellen.
Dass Riesenproblem ist es aber auch nicht. Schon immer gabs Boards mit unterschiedlichen Spannungswandlern. Billigboards hatten oft ein Maximum bei 95W, was das ein oder andre Upgrade erschwerte und am Ende war der Sockel AM3+ plötzlich gut für 220W. Mit OC knackte der ein oder andre wohl auch schon die 300W Marke, von daher würde ich behaupten wollen, dass es kein Hindernis wäre.

Die Kühlung wäre dagegen aus meiner Sicht überhaupt kein Problem. Ein dicker Turm-Kühler kühlt Welten besser als irgend ein flacher Grafikkühler, da er eine deutlich größere Oberfläche zur Verfügung stellt. Außerdem wird man bei 300W sowieso auf Wasserkühlung setzen, was durch die Standardhalterung - Dank AM4-Sockel - auch einfach wäre, da man keine Sonderanfertigung benötigte.

Das Ganze steht und fällt wie besagt mit der Beschaltung des Sockels ohne viele Pins/Lanes wird das nichts. Als Indiz konnte bisher nur der Namen herhalten, anstatt FM3 heißt der neue ja jetzt AM4, aber bei AMD weiss man nie, möglicherweise hat man nur aus Marketinggründen den Namen geändert.

Ein weiteres aktuelles Indiz ist aber der Launch auf Ende 2016. Früher hieß es, dass die neue Plattform Anfang 2016 mit Bristol Ridge gestartet werden würde, jetzt gab es die Aussage, das man zusammen mit Zen erst Ende 16 starten will. Eine Erklärung könnte sein, dass FM3 wirklich eingestampft wurde und ein würdiger AM-Nachfolger mit vielen Lanes kommt. Allerdings gibts auch die triviale Erklärung, dass einfach nur irgendwas schief lief...

Immerhin, bisher spricht zumindest auch nichts dagegen, hoffen kann mal also noch.
 
Die Verschiebung von Bristol Ridge kann tatsächlich einfach nur auf das Preisniveau des RAMs zurückzuführen sein. Wenn die OEMs momentan noch billiger an DDR3 als an DDR4 kommen (ungeachtet der Geschwindigkeit), dann würde Bristol Ridge wie Blei in den Regalen liegen. Wenn dann beides gleich teuer ist, ist es egal, dann kann man noch aus Marketinggründen warten. Erst sobald DDR4 minimal billiger wird, muß unbedingt gewechselt werden. Durch Carrizo im Gewand Bristol Ridge hat sich AMD diese Möglichkeit offen gehalten, denn es hätte ja jetzt schon so weit gewesen sein können, dann hätte man den Sockel jetzt gleich launchen müssen und eben auch können.

Bei Geizhals fangen 8 GB DDR bei 67 € an, DDR4 gibt es ab 73 €. Im B2B-Bereich sind die Preise sicherlich ganz anders, aber der Abstand dürfte ähnlich sein. Für diese 6 € Unterschied bei einem ganzen PC würden OEMs morden.
 
Zurück
Oben Unten