Nvidia - Volta

Complicated

Grand Admiral Special
Mitglied seit
08.10.2010
Beiträge
4.949
Renomée
441
Es tauchen erste konkrete Hinweise auf Nvidias Nachfolger der Pascal Architektur auf. Nvidia Volta hat schon eine lange Vorgeschichte, da die GPU-Architektur ursprünglich vor Pascal erscheinen sollte. Ursprünglich 2013 als Nachfolger von Maxwell (GTX 970/980) angekündigt wurde Volta von Nvidia zur GPU Technology Conference 2014 von der Roadmap gestrichen und durch Pascal ersetzt für 2016.
https://www.heise.de/newsticker/mel...en-GPU-Volta-mit-Stacked-DRAM-an-1826130.html
01-Volta.jpg-fd2c172f6430a1ce.jpeg


https://www.heise.de/newsticker/mel...ebremst-Volta-wohl-noch-vor-2020-2160743.html
Volta-irgendwann-4d5d679409a7dc28.png


Nun scheint es allerdings soweit zu sein und die Probleme aus dem Weg geräumt. Es tauchen die ersten Einträge in Treibern auf und Entwickler von AIDA64 haben eine Device-ID gefunden, welche sie Volta zuordnen, genauer gesagt dem wohl größten Ausbau GV100: 1D81
Somit dürften erste Engineering Sample an Entwickler ausgegeben werden und Volta diesmal tatsächlich auch erscheinen.
Quelle: http://www.pcgameshardware.de/Nvidi...V100-taucht-erstmals-in-Treibern-auf-1221395/
 
Um die Leistung zu erreichen musste nv aufs ganze gehen 300w tdp und 815mm2 die oha, ich möchte so eine gamer gpu nicht haben. Nv ist aus dem gamer Bereich raus sieht man doch wofür die gpu entwickelt wurde deap learning und KI.
 
Nv ist aus dem gamer Bereich raus sieht man doch wofür die gpu entwickelt wurde deap learning und KI.
Der GV100, ja. Aber wie üblich wird NVIDIA auch kleinere GPUs mit dieser Architektur entwickeln, genau wie bei Pascal und Maxwell auch, und die werden dann mitnichten aus dem Gamer-Bereich raus sein. Frag mal rum bei Hardcore-Gamern, die haben überwiegend NVIDIA-Karten. Was hätten sie in den letzten 2 Jahren auch sonst kaufen sollen? Es gab ja keine zu 1070/1080/1080Ti gleichwertigen Karten von AMD *noahnung*
 
Extra für gaming wird nv nichts entwickeln die gv100 wird gedrosselt beim takt und fertig, um auf 150-250w zu kommen. Nur so nebenbei Volta sollte schon 2013 erscheinen, wir haben es 2017.
 
Auch GP100 hatte seinen GP102 Gamerchip -> GTX 1080. GP100 war ~600 mm² groß. So wird es auch einen deutlich kleineren Gamerchip mit Volta Architektur geben. Um so mehr, da GV100 noch mehr Balast mit sich trägt der für Gaming nichts nützt. Da zählen vor allem die neuen Tensor-Cores mit dazu. Und Volta sollte nicht 2013 erscheinen, er sollte nach Maxwell erscheinen, also da wo Pascal erschienen ist. Das wurde 2013 auf einer Roadmap gezeigt bei einer Veranstaltung. 2014 wurde die Roadmap geändert und Pascal als Nachfolger von Maxwell präsentiert, sowie Volta verschoben. Der erste Maxwell-Chip ist im September 2014 erschienen und der erste Pacal Chip im Mai 2016.

Bitte mal auf das Bild im ersten Beitrag schauen:
https://www.heise.de/newsticker/mel...en-GPU-Volta-mit-Stacked-DRAM-an-1826130.html

01-Volta.jpg-fd2c172f6430a1ce.jpeg
 
Zuletzt bearbeitet:
Extra für gaming wird nv nichts entwickeln die gv100 wird gedrosselt beim takt und fertig, um auf 150-250w zu kommen.
Da liegst Du falsch! NVIDIA macht das anders als AMD. NVIDIA entwickelt schon seit Jahren unterschiedliche Chips für verschiedene Segmente. Der Chip XX100 ist immer das Topmodell mit allen Features, die es nur gibt. Nur ist das in der Regel nie der Gaming-Chip. Im Gegensatz AMD bringt NVIDIA nicht nur teildeaktivierte Chips für die unterschiedlichen Segmente, sondern tatsächlich andere GPUs. Siehe Pascal:
- GP100: Architektur-Referenz => Tesla (GPGPU, Deep Learing, etc.)
- GP102: High-End Gaming + Workstation => 1080 Ti, Titan X, Titan Xp
- GP104: Performance => 1070, 1080
- GP106: Mainstream => 1060
- GP107: Einsteiger => 1050(Ti)

NVIDIA ist hier also wesentlich flexibler als AMD. Die Architektur gilt für alle, aber die Features und Die-Größe (Herstellungskosten, Ausbeute) ist erheblich unterschiedlich. AMD versucht das ja auch mit Polaris 10, 11, 12, allerdings fehlt hier (noch) die massive Streuung.
 
Zuletzt bearbeitet:
Da liegst Du falsch! NVIDIA macht das anders als AMD. NVIDIA entwickelt schon seit Jahren unterschiedliche Chips für verschiedene Segmente. Der Chip XX100 ist immer das Topmodell mit allen Features, die es nur gibt. Nur ist das in der Regel nie der Gaming-Chip. Im Gegensatz AMD bringt NVIDIA nicht nur teildeaktivierte Chips für die unterschiedlichen Segmente, sondern tatsächlich andere GPUs. Siehe Pascal:
- GP100: Architektur-Referenz => Tesla (GPGPU, Deep Learing, etc.)
- GP102: High-End Gaming + Workstation => 1080 Ti, Titan X, Titan Xp
- GP104: Performance => 1070, 1080
- GP106: Mainstream => 1060
- GP107: Einsteiger => 1050(Ti)

NVIDIA ist hier also wesentlich flexibler als AMD. Die Architektur gilt für alle, aber die Features und Die-Größe (Herstellungskosten, Ausbeute) ist erheblich unterschiedlich. AMD versucht das ja auch mit Polaris 10, 11, 12, allerdings fehlt hier (noch) die massive Streuung.

Designtechnisch zu 100% getrennt warn die Pascal Designs zwar noch nicht und sind es auch mit Volta noch nicht 100%ig aber klar ist, dass Nvidia die DataCenter/AI/Deep-Learning GPUs immer weiter von den Gaming GPUs abkoppelt. Aktuell sind Teile von P100 und V100 die im Gaming nicht zum Einsatz kommen und es werden zukünftig immer mehr. Ich schätze in spätestens der zweiten Generation nach Volta wird es eine komplette Trennung geben, die sich vermutlich dann auch in etwas abgespeckteren GPUs äußern wird. Da die DataCenter Sparte mittlerweile bei 400 Mio pro Quartal Umsatz mit Tendenz steigend liegt ist das finanziell problemlos möglich. Bei AMD geht es halt aus finanziellen Gründen einfach nicht.
 
Nehmen wir mal an es fallen die tensor core weg, am Ende ist der Chip immer noch bei 600mm2, was auch so ungefähr kommen wird.
 
Nehmen wir mal an es fallen die tensor core weg, am Ende ist der Chip immer noch bei 600mm2, was auch so ungefähr kommen wird.

Dann hat er aber immer noch NVLink an Board sowie diverse andere Themen die für das Gaming nicht so richtig relevant sind, z.B. FP64 etc. GP100 ist 600mm2 groß. GP102 jedoch nur 471mm2. Es gab also schon bei Pascal einen relevanten Unterschied. M.E. fällt der jedoch geringer aus als es möglicherweise bei Volta im Vergleich zwischen einem möglichen Gaming Ableger und V100 der Fall sein wird, eben weil Nvidia die GPUs für die DataCenter/AI Sparte mit zunehmend Hardwarefeatures ausstattet die für das Gaming nicht relevant sind. Insofern würde ich vermuten, dass ein Volta Gaming Ableger so zwischen 500mm2 und 600mm2 liegen wird und das wäre ja dann im Prinzip für das Enthusiast Segment im normalen Bereich. Bei Preisen von 800 bis 1200 Euro pro Karte auf jeden Fall gut machbar. Mit einem zusätzlichen Salvage Part könnte man auch noch ein wenig runter gehen.
 
Volta 15tflops fp32 vega 13tflops
 
Da die DataCenter Sparte mittlerweile bei 400 Mio pro Quartal Umsatz mit Tendenz steigend liegt ist das finanziell problemlos möglich. Bei AMD geht es halt aus finanziellen Gründen einfach nicht.

AMD hat in den letzten Jahren durch die CustomsDesigns gelernt sehr modular zu arbeiten. nVidias Erfolg im Datacentersektor rechtfertigt ein eigenes Design, während AMDs Anteil dort sehr überschaubar ist. Ich vermute, AMD fehlt der Roi um ein getrenntes Design zu rechtfertigen. AMD setzt sinnvollerweise seinen Schwerpunkt an anderer Stelle(Unterhaltung/VR) statt sich bei Datacenterlösungen einen Wettlauf mit nVidia zu leisten. Datacenter nimmt AMD nur mit, weil man weiß, das viele Firmen nicht nur auf einen Anbieter setzen wollen.
 
Datacenter definiert sich mittlerweile durch den Interconnect und das Speichermanagement. Hier hat Nvidia zwar derzeit die größeren Einnahmen durch ihre Partnerschaft mit IBM, doch AMDs strategische Allianzen, die sie in den letzten 6 Monaten geschlossen haben haben deutlich mehr Potenzial und Aussichten. Nvidia kann mit NVLink derzeit nur IBM vorweisen, wo ihre Voltas die ganze Performance ausspielen können. AMD mit Infinity Fabric nutzt hingegen die beiden anderen der drei offenen Standards CCIX und GenZ. Sie sind ebenfalls im OpenCAPI-Konsortium mit IBM und Nvidia auf dem NVLink basiert. Derzeit dominiert allerdings 99% des Datacenter Marktes Intel und die nutzen QPI und versuchen ihre Xeon Phi Beschleuniger unterzubringen. Weder Nvlink basierende noch Infinity Fabric Basierende GPUs sind hier sinnvoll einzubinden. Also muss Nvidia auf eine Verbreitung von IBM setzen und AMD muss selber mit ihren CPUs in die Datacenter und kann auf ARM basierenden Systemen angebunden werden.

Wie die Zukunftsaussichten dabei aussehen zeigt dieser Artikel der den "Interconnect-Krieg" gut zusammenfasst:
https://www.theregister.co.uk/2016/10/14/opencapi_declaration_of_interconect_war/
OpenCAPI, CCIX und GenZ wird von folgenden "Key Customer" unterstützt:
Amazon, Apple, Facebook, Google und Microsoft
Und von folgenden Server-Herstellern:
Cisco, Dell, Fujitsu, HDS, HPE, Huawei, IBM, InSpur, Lenovo, Oracle, Quanta und Supermicro

Sie alle setzen auf einen Interconnect ohne Intel. Nur braucht man dann auch CPUs von anderen Herstellern. Hier kommen IBM, ARM und AMD in Frage wobei AMD als einziger x86 Kompatible Hardware liefern kann und mit den Ryzens sehr gut aufgestellt ist. Diese CPU-Design Wins werden über den Erfolg oder Misserfolg der Datacenter GPUs entscheiden auf lange Sicht. Womöglich werden die besseren GPU Produkte auch hier eine Rolle spielen, doch am wichtigsten sind die Interconnects, da diese nicht so schnell wieder ausgetauscht werden wie GPU oder CPU Hardware aufgerüstet wird. Und hier ist CCIX/GenZ deutlich voraus und auch schon in Vega vorhanden. Nicht zu vergessen, dass AMD auch Gründungsmitglied des OpenCAPI-Konsortiums ist auf dem NVLink basiert.
 
Datacenter definiert sich mittlerweile durch den Interconnect und das Speichermanagement. Hier hat Nvidia zwar derzeit die größeren Einnahmen durch ihre Partnerschaft mit IBM, doch AMDs strategische Allianzen, die sie in den letzten 6 Monaten geschlossen haben haben deutlich mehr Potenzial und Aussichten. Nvidia kann mit NVLink derzeit nur IBM vorweisen, wo ihre Voltas die ganze Performance ausspielen können. AMD mit Infinity Fabric nutzt hingegen die beiden anderen der drei offenen Standards CCIX und GenZ. Sie sind ebenfalls im OpenCAPI-Konsortium mit IBM und Nvidia auf dem NVLink basiert. Derzeit dominiert allerdings 99% des Datacenter Marktes Intel und die nutzen QPI und versuchen ihre Xeon Phi Beschleuniger unterzubringen. Weder Nvlink basierende noch Infinity Fabric Basierende GPUs sind hier sinnvoll einzubinden. Also muss Nvidia auf eine Verbreitung von IBM setzen und AMD muss selber mit ihren CPUs in die Datacenter und kann auf ARM basierenden Systemen angebunden werden.

Wie die Zukunftsaussichten dabei aussehen zeigt dieser Artikel der den "Interconnect-Krieg" gut zusammenfasst:
https://www.theregister.co.uk/2016/10/14/opencapi_declaration_of_interconect_war/
OpenCAPI, CCIX und GenZ wird von folgenden "Key Customer" unterstützt:
Amazon, Apple, Facebook, Google und Microsoft
Und von folgenden Server-Herstellern:
Cisco, Dell, Fujitsu, HDS, HPE, Huawei, IBM, InSpur, Lenovo, Oracle, Quanta und Supermicro

Sie alle setzen auf einen Interconnect ohne Intel. Nur braucht man dann auch CPUs von anderen Herstellern. Hier kommen IBM, ARM und AMD in Frage wobei AMD als einziger x86 Kompatible Hardware liefern kann und mit den Ryzens sehr gut aufgestellt ist. Diese CPU-Design Wins werden über den Erfolg oder Misserfolg der Datacenter GPUs entscheiden auf lange Sicht. Womöglich werden die besseren GPU Produkte auch hier eine Rolle spielen, doch am wichtigsten sind die Interconnects, da diese nicht so schnell wieder ausgetauscht werden wie GPU oder CPU Hardware aufgerüstet wird. Und hier ist CCIX/GenZ deutlich voraus und auch schon in Vega vorhanden. Nicht zu vergessen, dass AMD auch Gründungsmitglied des OpenCAPI-Konsortiums ist auf dem NVLink basiert.

Nvidia nutzt NVlink auf ihrem eigenen DGX-1 Server um die P100 bzw. nun V100 GPUs zu verbinden. CPU seitig kommen x86 basierte Intel Xeon's zum Einsatz. Und mehr als über die Hardware definiert sich der gesamte DataCenter/AI Bereich über die Software. Da bekommst Du bei Nvidia mittlerweile so ziemlich alles geboten, von eingebunden DeepLearning Frameworks, CUDA Support und Libraries bis hin zu ganzer Server Management Software. Abgerundet wird das Ganze noch durch HGX-1 für bestehende Server Racks in DataCentern und natürlich GPU Cloud, dem eigenen DeepLearning/AI Cloud Dienst von Nvidia. Letzteres ist dann für diejenigen Kunden die sich keinen DGX-1 oder ähnliche Hardware ins Rechenzentrum stellen wollen.

Das ist schon lange keine reine Hardware Frage mehr. Hier werden nur die Unternehmen richtig Geld verdienen und zu den großen gehören die ein ganzes Ökosystem liefern können. Nimms mir nicht übel aber davon ist AMD noch Lichtjahre weg. Das ist nicht mal Ansatzweise vergleichbar. Aktuell sehe ich hier nur Google, Intel und Nvidia sowie Nvidia mit IBM. Amazon und MS betreiben zwar auch entsprechende Dienste setzen aber primär auf Lösungen von Intel und Nvidia. AMD konzentriert sich auf Hardware. So nach dem Motto seht her, hier ist unsere Vega FE oder Mi25. Das ist aber viel zu wenig und einfach zu sehr "mee too". Da muss Software her und zwar alles, vom angepassten OS über Management Software, Libraries und Plugins bis hin zu komplettem DeepLearning Framework Support.
 
Zuletzt bearbeitet:
DGX1-Server mit Intel CPU fehlt der NVLink zur CPU - die Anbindung unter den GPUs ist schnell aber nicht schneller als die unter den AMD GPUs mit Infinity Fabric. x86 Code auf diesen Servern ist durch den Flaschenhals der CPU<->GPU Anbindung beschränkt. Nicht alles in Datacentern dreht sich um Deep Learning. Vor allem wenn Google mit seinen TPUs den Inference Anteil nochmals schneller bewältigt. Da ist Nvidia mit seinen Voltas nur noch doppelt gemoppelt und steht in direkter Konkurrenz. Zudem gefällt es den Server-Herstellern nicht, dass ein Zulieferer Ihnen plötzlich Konkurrenz mit eignen Servern macht. Langfristig wird das schwer werden für Nvidia mit dem DGX-1.

AMDs Vorgänger von Infinity Fabric, Hypertransport aus dem Jahr 2009, hatte schon ca. 50 GB/s pro Lane. NVLink hat gerade mal die Hälfte in seiner neuesten 2.0 Version (25 GB/s pro lane) - Nvidias Interconnect ist noch weit von QPI oder IF entfernt. Der Speicherzugriff durch IF erfolgt ebenfalls Cache-Kohärent (CCIX) und mit direkten Memory read/writes auf volatilen und Nicht-volatilen Speicher (Gen-Z). Ebenso sind Netzwerkspeicher gemeinsam adressierbar bis zu 512 TB. Während NVLink noch nicht einmal mit Intels CPUs den Speicher gemeinsam ansprechen kann, sondern dafür IBM Power 8+ CPUs aufwärts benötigt. Die Anbindung des DGX-1 mit den CPUs ist nach wie vor limitiert auf PCIe 3.0:
8-GPU-hybrid-cube-mesh.png


Deshab wird Nvidia die auch selber bauen, da diese Implementierung für Google, Facebook, Microsoft und andere wenig zukunftsgerichtet ist. Kein heterogener gemeinsamer Speicherzugriff. Begrenzung des adressierbaren gemeinsamen Speichers auf den verbauten GPU/Systemspeicher. Keine Load/Stores auf Non-Volatilen Speicher oder Netzwerkspeicher. Im Prinzip schon veraltete Technik von gestern, mit der Nvidia versucht aufzuschließen. Sie machen Umsatz -Ja. Das haben sie auch mit GSync eine Weile gemacht bevor sie von der versammelten Industrie mit einem übergreifenden Standard abgehängt wurden. Nun gut, es ist ihr Geschäftsmodell und es funktioniert ja gut. Es ist halt nur nicht sonderlich innovativ und hinkt technisch hinterher. Dafür vermarkten sie es ja überragend.

Und auf der Software Seite ist nach wie vor x86 Software das was den Ton angibt in Datacentern.
 
Zuletzt bearbeitet:
Nur kommt jetzt wo Intel muss ja auch nichts bis 2020. Daher halte ich diesen Mythos von der Intel-Taktik auch bei Nvidia nicht für zutreffend. Vega und die Zeppelin-Dies zeigen wo die Reise bei AMD hingeht. Da wird im GPU Segment das selbe passieren wie bei CPUs. Viele kleine Dies kombiniert zu einem großen Chip, wohl schon mit Navi. Da werden die großen monolithischen Monster von Nvidia noch mehr ins straucheln kommen als Intels CPUs wenn niedrige Kampfpreise anfangen die Margen zu beschneiden.
 
Verstehe euer Problem nicht.
GP 100 gibts doch auch nicht im Konsumermarkt.
GV wirds da auch nicht geben. Dafür dann GV102, GV104...
aber erst, wenns die Konkurrenz verlangt.
Sollte die 1080 und 1070 sich nächstes Jahr auch noch gut verkaufen lassen, sehen wir Volta im Konsumerbereich erst 2019 in 7nm.
 
GV102 und GV104 sind ja auch GV. Und die kommen nicht in 2017 - aber das war eigentlich immer schon klar und daher ist die Meldung von gamestar eigentlich keine.
Und das liegt sicher nicht an der fehlenden Konkurrenz wenn Nvidia in 2017 Marktanteile verliert. Absolutes Highend ist eben nicht alles. Überlegt mal welche Zyklen das sind bis eine Architektur von Design bis Auslieferung 4-5 Jahre braucht. Da kann man nicht warten bis die Konkurrenz etwas verlangt.
 
Nur kommt jetzt wo Intel muss ja auch nichts bis 2020.
Mit Hexacores bei den CPUs und vor allem Quad-Cores im Mobil-Bereich kommt da schon was von Intel. Genügend für die Klientel, würde ich sagen.

Im HPC- und Deep-Learning Bereich ist NV mit Volta zusammen mit Intel's KNM ziemlich alleine.

AMD konzentriert sich hier auf die Nische Video-Postprocessing, Rendering und VR und zwar ausdrücklich für "preisbewusste Kunden", wie AMDs Roy Taylor es selbst formuliert hat ("And you think it’s going to cost you millions to render? Well guess what, it’s not, and we can do that for you.").

Was ich aber auch für geschickt erachte. Denn wenn mal ein Technik-Oscar an einen Film geht, der die SFX mit AMD realisiert hat, ist das Marketing-technisch Gold wert und möbelt auch das Image auf. Dann ist es irgendwann nicht mehr die Lederjacke, die "Cool" ist. ;)
 
Nur stehen die Hexacores gegen Octacores von AMD und die Quad-Cores im mobilen Bereich gibt es ja schon lange. Mit den U-Modellen wird der Takt massiv gesenkt von 2,8 auf 1,9 GHz für das Spitzenmodell. Ob das gegen Raven Ridge ausreicht wird sich zeigen müssen. AMD hat da noch eher mehr in der Schublade als Intel mit dem Zen+Vega Paket.
 
GV102 und GV104 sind ja auch GV. Und die kommen nicht in 2017 - aber das war eigentlich immer schon klar und daher ist die Meldung von gamestar eigentlich keine.
Und das liegt sicher nicht an der fehlenden Konkurrenz wenn Nvidia in 2017 Marktanteile verliert. Absolutes Highend ist eben nicht alles. Überlegt mal welche Zyklen das sind bis eine Architektur von Design bis Auslieferung 4-5 Jahre braucht. Da kann man nicht warten bis die Konkurrenz etwas verlangt.
Die Architektur an sich ist doch bereits fertig.
Aus dem Monster-Chip dann mal eben einen halben Monster-Chip in sinnvoller Größe zu zaubern, erfordert einen neuen Maskensatz und ein paar Monate später hat man die ersten Wafer mit einem Consumer-Chip fertig.
Bei der aktuellen 10xx-Generation ist ja alles abbezahlt, da müssen nur noch die reinen Produktionskosten reingesteckt werden. Und so lange man diese Generation mangels Konkurrenz noch gut verkaufen kann, macht Nvidia das eben.
 
Nvidia braucht einfach nur kassieren. Und für alles andere sind sie gewappnet. Denn es ist nicht anzunehmen, dass die Entwicklungsabteilungen mangels Konkurrenz im Bereitschaftsmodus laufen.
 
Navi. Da werden die großen monolithischen Monster von Nvidia noch mehr ins straucheln kommen als Intels CPUs wenn niedrige Kampfpreise anfangen die Margen zu beschneiden.


Jupp, Nvidia ist gerade schwer. Die Zahlen dieses Jahr waren ja extrem schlecht. Ups.
 
Zurück
Oben Unten