nVidia: Turing/Ampere (2018)

Es läuft letztendlich auf beides hinaus.
Dinge wie die Berechnungen mit halber Präzision müssen natürlich erst unterstützt werden, zudem haben die Architekturen unterschiedliche Pixel- und Polygonenleistungen auf die natürlch auch hin optimiert werden kann. Sie reine SP Shader Leistung ist da nur ein Bruchteil der Wahrheit.

Ich bin aber mal gespannt ob die halbe Präzision von Ampere bzw. Volta auch unterstützt werden.
Dies wäre ein Mittel um bei bestimmten Berechnungen, welche nicht allso genau ausfallen müssen, die Rechenleistung massiv zu erhöhen.
 
Im Gaming Bereich ist es nicht einfach, viele unterschiedliche zum Teil alte Spiele die auch wieder laufen müssen. Neue Architektur viel Arbeit für Programmierer.

Ich denke mal das, daß auch das Problem für Vega ist. Alter Code in Spielen der so halbwegs gut auf der neuen Architektur läuft.

Ich habe letztens Far Cry aus 2004 gespielt. Das lief mit 400 bis 600 FPS in 4K (vielleicht auch mal weniger, aber immer, wenn ich hingeschaut habe, war es in dem Bereich). Deshalb denke ich, dass bei vielen älteren Spielen einfach soviel Rohleistung übrig sein sollte, dass selbst eine mittelmäßige Hardware-Unterstützung für eine ausreichend hohe Framerate genügen sollte. Es wird Ausnahmen geben, generell sehe ich das aber nicht als das eine große Problem an.



Von der reinen Rechenleistung gibt es so gut wei keinen Unterschied zwischen AMD und Nvidia. Nur das verstehen Gamer nicht, die schauen ja nur auf die angezeigten fps.

Verstehe ich dich irgendwie falsch oder kritisierst du gerade den Gamer dafür, dass er eine Kaufentscheidung möglicherweise an der erzielten Framerate festmacht?!

Falls ich dich tatsächlich richtig verstehe, frage ich mich, warum der Gamer das anders machen sollte - sofern reinies lineares Gaming sein Hauptanwendungsgebiet ist. Soll er aus Solidarität etwas kaufen, was in seinem Lieblingsspiel weniger FPS liefert, dabei möglicherweise deutlich mehr verbraucht und vermutlich deshalb auch lauter agiert? Und das nur, weil ja auf dem Papier die Rohleistung identisch zur besseren Lösung ist?! Diese Logik erschließt sich mir überhaupt nicht... *noahnung*

Was anderes wäre es, wenn das stinknormale Zocken nicht das Hauptanwendungsgebiet ist. Jemand, der Mining betreibt, wird seine Kaufentscheidung nicht an der FPS-Zahl von Quake 3 Arena festmachen. Und sollte er das doch tun, dann ist ihm einfach nicht zu helfen. Aber einen Gamer dafür zu kritisieren, dass er die für sich beste Leistung bevorzugt, statt andere Faktoren in seine Kaufentscheidung mit einfließen zu lassen, halte ich für den falschen Ansatz.
 
Nun die meisten Reviews bieten ja nun neben den FPS Angaben (auch min,avg und max) auch Frametimemessung, wer nur auf den längsten Balken schaut ist selber schuld.
 
Das kann man wohl so oder so sehen aber wenn ich in den Kommentaren des Computerbase Artikels "AMD liegt in der Elite Trooper Deluxe Edition vor Nvidia" mal wieder lese wie sich wieder einige darüber meckern das die Überschrift falsch sei weil ja die deutlich teurere 1080ti schneller ist dann vermute ich dass das Schlüsselwort von Peet007 das Wort "nur" ist.
Wird der Preis bei der Diskussion also komplett ignoriert dann kann man sich wirklich nur an den Kopf fassen.
 
Gegen Holzkopf und Fanboydenken (sprich Dummheit) hilft nun mal nix.
 
Ich habe ohnehin festgestellt das Diskussionen darüber sinnlos sind. Das läuft dann immer nach dem Schema "Ich bin zwar schon 3x vom Baum gefallen aber wer sagt denn das ich noch ein viertes mal runterfalle?" ab. Die Zeit kann man wirklich sinnvoller verwenden.
 
Stimmt. Und da ich schon mehrfach auf Amds es wird jetzt ganz sicher Anders werden und die Karte wird so großartig, ihr müsst nur warten, hereingefallen bin, mach ich das nicht mehr mit. Wenn sich die Versprechen bewahrheiten kann man immer noch wechseln.
 
Nachdem nicht mal die Hälfte der Funktionen die angekündigt waren zu funktionieren scheinen und man mit etwas Tuning in der Regel locker am direkten Konkurrenzmodel vorbeizieht, ist es mir derzeit (!) fast schnuppe, was versprochen wurde. Hauptsache es wird nachgeliefert.

Momentan unterscheidet sich das (funktionierende) Featureset von Vega nicht so gravierend von Fiji. Ich schätze, wenn Fiji wirklich im planaren 20nm Prozess gekommen wäre, wären die Furys knapp auf Augenhöhe mit Vega, womit sie Kreise um die damalige Konkurrenz gedreht hätten. Aber hätte hätte.. Zudem steigt die Leistung der Karten in der Regel noch mit der Zeit.

AMD hat das Problem, Innovationen für morgen in einen Prozess von gestern zu implementieren, die auch noch lange Balken in Software von vorgestern ausspucken müssen kombiniert mit hoher Effizienz. Das schreit schon förmlich nach Zielkonflikt. Dazu kommt auch noch ein meines Erachtens schlechtes Standing bei TSMC (alle anderen scheinen bevorzugt zu werden) und GloFo ist meist mit sich selbst beschäftigt. Dass man da kaum aus dem Straucheln kommt, ist nicht verwunderlich.

Unabhängig davon unterstütze ich lieber einen Innovationstreiber als Apothekenpreise beim vermeintlichen Marktführer zu zahlen. Klar, nicht gehaltene Zusagen sind doof, aber den Aussagen von Marketingfuzzis sollte man eh niemals vertrauen (branchenübergreifend).
 
Verstehe ich dich irgendwie falsch oder kritisierst du gerade den Gamer dafür, dass er eine Kaufentscheidung möglicherweise an der erzielten Framerate festmacht?!

Falls ich dich tatsächlich richtig verstehe, frage ich mich, warum der Gamer das anders machen sollte - sofern reinies lineares Gaming sein Hauptanwendungsgebiet ist.

Nun die meisten Reviews bieten ja nun neben den FPS Angaben (auch min,avg und max) auch Frametimemessung, wer nur auf den längsten Balken schaut ist selber schuld.
Eben - wäre nur die FPS das einzige wonach man schaut als Gamer, würden alle Gaming-Maschinen Crossfire und SLI Setups sein. Aber auch Single-GPUs haben hier Unterschiede. Besonders AMDs AsyncCompute bietet hier bei den anderen Merkmalen Vorteile und auch die Freesync Ranges der Monitore grenzen ein Optimum auch nach oben ab. Auch AMDs HBCC eliminiert Nachladeruckler bei Texturen und anderen Ressourcen. Sogar Fijis HBM war schon in der Lage hier Vorteile zu bieten beim VRAM Verbrauch in bestimmten Spielen.
 
Zuletzt bearbeitet:
Aber wir sollten nicht zu sehr vom Thema abkommen bitte.
 
Da habe ich wiederum die gegenteiligen Erfahrungen gemacht.
Anfangs mag die Geforce etwas schneller gewesen sein aber sobald die neue Generation da war fielen die vor allen bei neuen Spielen mehr und mehr zurück. Da die Karten erst bei mir und später bei Bekannten und Verwandten weiter laufen sind die mehrere Jahre im Einsatz und da schlägt der Effekt natürlich voll durch.

--- Update ---

Um nochmal auf das Thema zurück zu kommen.
Ich für meinen Teil gehe davon aus das Volta/Ampere ebenfalls mit Unterstützung für die halbe Präzision daher kommen werden.
Zum einen beherrscht das wohl schon der GP100 Chip und zum anderen eben AMDs Vega. Ich denke aber auch das es bei der Spielegrafik und dem Thema VR mehr als genug Einsatzmöglichkeiten dafür gibt die auch mit einer geringeren Präzision auskommen.
 
Momentan is es halt ein bischen Haarig für Nvidia. AMD und Intel haben sich auf eine High End Lösung geeinigt, wenn man sich die Ankündigugen ansieht.

Wenn es nach AMD gehen würde, gäbe es keine(n) Bus/Schnittstelle mehr, sondern nur noch den Speichercontroller über den CPU und GPU komunizieren. Wo soll da Nvidia noch andocken?
 
Es ist wirklich bemerkenswert, wie AMD mittlerweile sogar verantwortlich für hohe Nvidia Preise gemacht wird (Leonidas im 3DCenter), während Nvidia mit Volta eine absichtliche 2-Schienen Strategie angedichtet wird. Nur mal so als Faktencheck:

Nachdem schon Maxwell verspätet gekommen ist
Die Entwicklung von Maxwell gleicht dabei einer Leidensgeschichte: Ursprünglich wurde die GPU im Jahr 2010 für 2013 angekündigt. Im Januar 2011 versprach Nvidias General Manager Michael Rayfield, dass Maxwell-Grafikchips sogar integrierte ARM-Rechenkerne mitbringen sollen. Dann kam 2013 der Umschwung: schließlich sollte erst Volta integrierte ARM-Kerne bieten und Maxwell erst 2014 statt 2013 herauskommen, aber mit Unified Virtual Memory und aus der 20-nm-Fertigung. Nun bieten die ersten "Maxwell"-Abkömmlinge nichts von alledem, arbeiten aber immerhin effizienter.
Und Volta daraufhin folgen sollte, wie Nvidia auf der GTC 2013 noch präsentiert hatte,
Bis die Technik auf GeForce- und Tesla-Grafikkarten auftaucht, dauert es aber noch einige Jahre, denn Volta ist laut Nvidia der Nachfolger von "Maxwell", der selbst erst für 2014 angekündigt ist und Unified Virtual Memory mitbringt. Wann genau Volta erscheinen soll, hat Nvidia bewusst nicht bekannt gegeben und die Jahreszahl auf der Roadmap einfach weggelassen.
Wurde das alles 1 Jahr später umgeschmissen und einiges an Features gestrichen:
Nvidia sorgte auf der GPU Technology Conference 2014 durch eine neue Roadmap für Verwirrung. So tauchte der im Jahr 2013 als Maxwell-Nachfolger angekündigte Grafikchip "Volta" nicht mehr auf, stattdessen projizierte der Nvidia-Boss Jen-Hsun Huang "Pascal" für 2016 an die Wand. Auch vom ursprünglich für Maxwell geplanten "Unified Virtual Memory" war nichts mehr zu sehen, stattdessen soll Pascal "Unified Memory" bieten.

Und nun ist das alles ein genialer Strategischer Schachzug, um GPUs zweigleisig fahren zu lassen. Mit Ampere anstatt Volta für Gaming, weil die sowieso immer schon nur für HPC geplant waren - also wirklich. Da sind 3 Mrd. R&D versenkt worden
Die Volta-Architektur soll in der Entwicklung 3 Milliarden US-Dollar gekostet haben. Diese Investition muss sich auch auszahlen.
Und Pascal konnte die Erwartungen für die IBM Supercomputer nicht erfüllen, und wurde lediglich in Testmaschinen eingesetzt. Hier musste Volta nun dringend einspringen um das versprochene zu liefern. Dafür ist aber die seit 2013 dauernd verschobene Volta-Architektur nun aber nicht mehr für Gamer tauglich. Und schwups, wie von selbst entsteht die Legende von Ampere, der schon immer als Nachfolger von Pascal im Gaming geplant war und nun die echte Architektur-Erneuerung wird, weil Pascal ja sowieso nur ein Effizienz-Update von Maxwell war. Wie hardwareluxx auch schreibt
Etwas ungewöhnlich ist, dass NVIDIA zwar schon Hardware auf Basis der Post-Volta-Architektur ankündigt, dieser bisher aber keinen Namen gibt. Uns gegenüber wurde kein Name fallen gelassen, daher können wir Ampere weder bestätigen, noch haben wir gegenteiliges gehört.
Tja, das sieht für mich nicht nach geplanten Aktionen aus, dannach sah schon die Einführung von Pascal 2016 nicht aus.

Also ich weis nicht was ich von Volta oder Ampere bisher halten soll, doch ich sehe wie AMD beständig seinen Plan durch zieht von Polaris zu Vega und konsequent weiter. Nvidia hat darauf gute Antworten gehabt, auch wenn sie in den letzten 2 jahren 10% Marktanteil verloren haben seit ihrem Höchststand im Q2/2015 mit 81% Marktanteil. Trotzdem ist es Ihnen gelungen ein Rekordquartal nach dem anderen in den Bilanzen zu präsentieren, weil sie es verstanden haben die Preise kontinuierlich anzuheben und das trotz fallender Stückzahlen (2007 noch 91 Mio Stück, 2015 nur noch 44 Mio.) im GPU Gesamt-Markt. Ich befürchte nur, dass hier nun bald das große Erwachen kommen wird. AMD hat es geschafft sich aus dem Software-Käfig zu befreien mit Mantle und der darauf folgenden Lowlevel-API Revolution. Ich denke nun müssen die Redaktionen mal etwas genauer hinschauen was es da mit Volta/Amper auf sich hat. Denn Vega ist immer öfter mit einer Pascal TI gleichwertig zu finden in den Nachtests.

Aber dass Ampere und Volta da irgendeiner zugrunde liegenden Strategie folgen, das kann ich beim besten Willen nicht erkennen aus den letzten 4 Jahren Nvidia Roadmap. Auf keinen Fall kann ich sehen was hier Hardwareluxx zu sehen scheint:
Eine parallele Entwicklung zweier GPU-Architekturen kann sich aber auch NVIDIA (noch) nicht leisten. Insofern könnte eine Art Tick-Tock-Prinzip Einzug halten, bei dem NVIDIA im Wechsel eine neue GPU-Architektur für GPU-Beschleuniger und den GeForce-Markt entwickelt. Mit Pascal --> Volta --> Ampere sehen wir eine erste Stufe dieser Entwicklung
Dafür gibt es nun wirklich keine Anzeichen von Entwicklung wenn man 4 Jahre GTC in Betracht zieht.
 
Zuletzt bearbeitet:
Mal ehrlich, ich sehe selbst die Pascal Chips nur als aufgebohrte DX11 Architektur an, denn genau dort hat sie ihre Stärken.
Ich hoffe das die neuen Chips endlich mal eine vernünftige Hardware Unterstützung für Async Computer mitbringen damit diese zweigleisige DX12/Vulkan Programmierung endlich mal ein Ende hat.
 
Trotzdem ist es Ihnen gelungen ein Rekordquartal nach dem anderen in den Bilanzen zu präsentieren, weil sie es verstanden haben die Preise kontinuierlich anzuheben und das trotz fallender Stückzahlen (2007 noch 91 Mio Stück, 2015 nur noch 44 Mio.) im GPU Gesamt-Markt.
Dann erklär dem geneigten Leser doch mal, in welchen Segmenten NVIDIA weniger verkauft und in welchen Segmenten NVIDIA trotz fallender Gesamtstückzahlen mehr verkauft hat.

Und Du darfst natürlich auch gerne AMDs Verkaufszahlen zur Einordnung daneben stellen. Nachzulesen bei Anandtech

jpr_q2_2016_mkt_historical_annual_gpu_sales_575px.png


jpr_q2_2016_nvda_shipments_ANNUAL.png


jpr_q2_2016_amd_shipments_ANNUAL_575px.png


wenn sie in den letzten 2 jahren 10% Marktanteil verloren haben seit ihrem Höchststand im Q2/2015 mit 81% Marktanteil.
Wie hat sich denn die Umsatzverteilung zwischen AMD und NVIDIA entwickelt?

AMD hat es geschafft sich aus dem Software-Käfig zu befreien mit Mantle und der darauf folgenden Lowlevel-API Revolution.
Die Revolution lässt sich anscheinend sehr viel Zeit.

Und warum haben die Board-Partner augenscheinlich so wenig Interesse an Vega?
 
@Cleric
Und was haben deine Fragen nun damit zu tun, dass Nvidia seit 4 Jahren ein chaotisches hin und her in der Roadmap fabriziert? Du zitierst mich doch wie ich schreibe Nvidia hat es gut verstanden in einem kleiner werdenden Markt mehr Geld zu verdienen. Streitet keiner ab. Das zeugt von sehr guten Management Fähigkeiten und der Fähigkeit auch Rückschläge noch in Geld zu verwandeln. Nvidia konnte den Ausfall der 20nm Generation deutlich besser Kompensieren und hat davon deutlich profitiert.

Während AMD seine Stückzahlen von 2015 dieses Jahr wohl fast verdoppeln wird, wird Nvidia wohl konstant bei ca. 35 Mio. GPUs Ende 2017 ankommen.

Mangelndes Interesse bei Boardpartnern für Vega kann ich nicht ausmachen. Ist aber auch Offtopic.

Deine Ausführungen zeigen in keiner Weise, dass Nvidia nun strategisch zweigleisig fährt mit Volta/Ampere.
Low-Level API Revolution, die ist ja wohl in vollem Gange und nicht aufzuhalten, lediglich zu verzögern, was Nvidia ja erfolgreich schafft, während sie fieberhaft versuchen ihre Architektur Nachteile für DX12/Vulkan zu beheben.
Volta war da schon von vornherein verloren mit Ihren Tensor-Cores, was die Verschiebung und Limitierung des Chips auf DX12/Vulkan-freie Märkte zeigt wo sie ausschließlich mit ihrer eigenen Software CUDA konfrontiert und optimiert werden. Ob Ampere genug Zeit hatte die Defizite zu beheben wird sich zeigen. In jedem Fall tut sich Nvidia immer da schwer wo sie nicht die Alleinherrschaft in der Software haben.

--- Update ---

Wie hat sich denn die Umsatzverteilung zwischen AMD und NVIDIA entwickelt?
Das sind Zahlen zum Umsatz nicht zu Stückzahlen -10% Marktanteil für Nvidia seit Q2/2015 - bitte verstehen, dass dies nicht bedeutet dass Nvidia weniger Umsatz gemacht hat, wenn AMD zeitgleich Marktanteile gewinnt und seinen Umsatz verdoppelt in dem Segment. Die Stückzahlen bleiben konstant bei ca. 35 Mio. ausgelieferten AIBs für Nvidia. Es werden immer mehr teurere AIBs verkauft.
 
Zuletzt bearbeitet:
Das Reverenzdesing der Vega ist einfach sehr hochwertig, von klein bis groß, das ist nicht leicht zu topen. Sie ist vor allem auch für den Profesionellen Einsatz gedacht. Das merkt man, einbauen und laufen lassen. Um Temps im Gehäuse braucht man sich keine Gedanken machen.

Die Boadpartner werden mit AMD schon in Kontakt stehen, ob es sich rentiert. Oder was wann in der Zukunft kommt und hier im Vorfeld schon entwickelt.
 
Mir gefällt das kleine Referenzdesign bisher noch am besten, liegt vielleicht daran das es optisch dem meiner Pro Duo entspricht. :)

@Cleric
Ich verstehe gerade nicht wo dein Problem ist.
Der Markt schrumpft seit Jahren nur hatte AMD dabei stärker an Absatz verloren als nvidia, entsprechend sind nvidias Marktanteile an dem schrumpfenden Markt gestiegen.
Haben sie also Rekord Umsätze und Gewinne eingefahren dann geht das nur über den steigenden Verkaufspreis und genau das war ja auch der Fall denn die Preise innerhalb des Preisgefüges für nvidias Desktop Karten steigt stetig.
 
interessant, was für mutmaßungen beim aktuellen kenntnisstand zu ampere so die runde machen. denn der kenntnisstand geht momentan gegen 0.

Die Boadpartner werden mit AMD schon in Kontakt stehen, ob es sich rentiert. Oder was wann in der Zukunft kommt und hier im Vorfeld schon entwickelt.
irgendwas liegt da nachwievor im argen. vielleicht liegt es auch einfach daran, dass die board-partner ihre designs nicht zu einem konkurrenzfähigen preis in den handel bekommen, weil vega für diesen markt schlicht zu komplex ist + hbm2. eilig scheint es jedenfalls niemand zu haben. man hat eher den eindruck, dass die meisten ihre mindestverpflichtungen als aib-partner zu erfüllen versuchen, aber das reicht dann auch.

vielleicht hat amd momentan aber auch gar kein interesse am pc-gaming-markt. konsolen scheinen zu laufen und der rest wird überwiegend von minern weggekauft.

@Cleric
Ich verstehe gerade nicht wo dein Problem ist.
Der Markt schrumpft seit Jahren nur hatte AMD dabei stärker an Absatz verloren als nvidia, entsprechend sind nvidias Marktanteile an dem schrumpfenden Markt gestiegen.
Haben sie also Rekord Umsätze und Gewinne eingefahren dann geht das nur über den steigenden Verkaufspreis und genau das war ja auch der Fall denn die Preise innerhalb des Preisgefüges für nvidias Desktop Karten steigt stetig.
die diskussion hatten wir schon mal vor ein paar jahren. hat sich bis heute auch nicht viel dran geändert.

der gesamtmarkt schrumpft. nvidia hat vor allem im lowend-bereich extrem federn gelassen. dort wurden billige grafikkarten durch apus abgelöst. gleichzeitig wächst der markt des highend-gaming seit jahren. und genau da hat nvidia in den letzten jahren mehr verkauft. das umsatz-wachstum kommt nicht allein aus preiserhöhungen, sondern auch durch höhere stückzahlen im hochpreisbereich.

und ja ... relativ gesehen haben sich durch die mehr oder weniger großen verluste am gesamtmarkt die entsprechenden marktanteile in die eine oder andere richtung verschoben. nur lohnt es sich dann zum besseren verständnis, mal zu schauen, wie sich die einzelnen sektoren des gesamtmarktes entwickelt haben. und es ist eben nicht alles überall durchgehend geschrumpft.
 
Zuletzt bearbeitet:
Zu Vega: Stand letztens noch irgendwo, dass die OEMs gerne eigene Custom Designs rausbringen würden, aber nicht genug Chips bekommen.
Ist jetzt die Frage: Hat AMD Produktionsprobleme oder haben sie "nur" die Nachfrage durch HTC und Miner unterschätzt?
Wäre ja klar, dass AMD dann lieber hochpreisige MI25 verkauft als billige Gamer-karten.

Zu Nvidia Umsatz: Nicht vergessen, dass AMD erst seit wenigen Wochen etwas Konkurrenz zu 1070 und aufwärts anbietet. Da konnte Nvidia bisher ungestört mit guten Margen verkaufen. Die paar Vega Reference Designs stören aktuell auch noch nicht so sehr. Wird sich erst ändern, wenn AMD genügend Vega Chips liefern kann und günstige Custom Designs die Preise was nach unten ziehen. Ich fürchte nur, das wird noch was dauern.

Thema Preiserhöhungen: Bin mittlerweile ganz froh, dass ich Juni 2016 direkt eine RX 480 8GB Refernce für 239,-€ gekauft habe. Kurz darauf setzte Mining ein und die Preise gingen hoch.
 
das thema verfügbarkeit von chips wurde vor einigen monaten gestreut. auch was die informationspolitik gegenüber den board-partnern angeht.

keine ahnung, was da dran war oder ist. da war aber noch die rede von custom-karten, die spätestens bis mitte oktober in den handel kommen sollten. wir haben jetzt mitte november.

Zu Nvidia Umsatz: Nicht vergessen, dass AMD erst seit wenigen Wochen etwas Konkurrenz zu 1070 und aufwärts anbietet.
wenige wochen? das sind nun 3 monate. da sollte man bei einem interessanten produkt eine ordentliche marktakzeptanz und durchdringung erwarten können. das ist im gaming-bereich bisher fehlanzeige.

ich weiß, dass einige allergisch auf igor von tomshardware reagieren. aber der hat vor ein paar tagen dazu was geschrieben.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11543160#post11543160

ich hatte das schon weiter vorne geschrieben.

pascal ist am ende. wer bisher nicht migriert ist, wird das auch nicht mehr tun. schon gar nicht bei der preisentwicklung der letzten zeit. und ich meine gelesen zu haben, dass die wachstumkurve beim pc-gaming deutlich abflacht. also viele neukäufer wird pascal vermutlich auch nicht mehr locken.

wenn nvidia weiter wachstum generieren will, müssen sie mit ampere liefern. sonst sind zumindest im gaming-bereich die rosigen zeiten bald vorbei. vermutlich hätte man ohne einflüsse wie den mining-boom bereits die negativen auswirkungen sehen können. aber so haben nvidia als auch amd stark vom mining profitiert.
 
Die Gamer sind doch keine statische Gruppe. Da kommen jeden Tag neue hinzu die sich erstmalig einen Gaming PC kaufen, oder die 5 Jahre alte Grafikkarte mal ersetzen wollen. Da wird gekauft, was aktuell am Markt ist.
Zudem dürfte bald der VR Boom einsetzen. Steam empfielt für Mixed reality eine 1070 aufwärts. Da werden viele, denen bisher eine 1050 oder 560 gereicht hat, aufrüsten.
 
VR? Braucht man einen ganzen leeren Raum dazu. Sich sowas einzurichten muss man da doch sehr interessiert sein. Ein knaller Spiel dazu fehlt auch.

Das HBM auf Gaming Karten einzieht ist so gut wie sicher. Pascal ist alte Technik die man beherrscht. Eigene Desinges für das PCB müssen entwickelt werden, das kostet Zeit und Geld. Eine Karte auf den Markt zu bringen die vll einen Fehler hat, ist bei hochpreisigen Karten Fatal.

Normal wird zuerst die Industrie versorgt und dann die Verbraucher. Keine Ahnung mit was für Hardware die "just in Time" Datenverarbeitung läuft. Google, Amazone, Microsoft. Sprachaufzeichnung und Analyse, wann kommt die Antwort?
 
Die Gamer sind doch keine statische Gruppe.
das ist richtig. es gibt aber prognosen, dass ganz allgemein der anhaltende aufwärtstrend beim pc-gaming langsam abflacht.

allerdings sind diese prognosen zumindest 2016 teils deutlich übertroffen worden. ob das weiter so geht? keine ahnung.

Zudem dürfte bald der VR Boom einsetzen.
da würde ich keine prognose wagen, weil sich der markt so schnell weiterentwickelt.

aber die initial-zündung bei vr ist doch komplett verpufft. und der große hype hat zu keinem boom geführt. mittlerweile ist dies doch bereits wieder erledigt. sony hat zwar einen kleinen achtungserfolg erzielen können, ich kenne aber viele, bei denen die vr-headsets inzwischen irgendwo in der ecke verstauben.

ABER ... wie gesagt entwickelt sich das thema ar/vr sehr schnell weiter. vor allem abseits des gaming. und wer weiß ... wenn die headsets leichter und kabellos werden, kann vielleicht der große durchbruch schon in der nächsten generation stattfinden. oder auch nicht. ich weiß es nicht ... *noahnung*
 
Zurück
Oben Unten