GeForce GTX TITAN X Launchartikel/Reviews & Diskussion zur Karte

eratte

Redaktion
☆☆☆☆☆☆
Mitglied seit
11.11.2001
Beiträge
21.851
Renomée
2.813
Standort
Rheinberg / NRW
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2020
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2021
Heute wird die GeForce GTX TITAN X: wohl das Netz mit Reviews "fluten". Thread soll für Interessierte eine Übersicht im Post 1 bieten.

nVidia Teaser

Deutsch:
NVIDIA GeForce GTX Titan X im Test (HardwareLUXX)
Nvidia GeForce GTX Titan X im Test (Computerbase)
GTX Titan X im Test: Top, aber teuer (PC GamesHardware)
Nvidia GeForce GTX Titan X im Test: Kommt eine einzelne GPU mit 4K klar? (tom´sHARDWARE)
Nvidia: High-End-Grafikkarte GeForce GTX Titan X für 1000 Dollar (heise)
Launch-Analyse: nVidia GeForce GTX Titan X (3D Center)
GTX Titan X mit Arctic Accelero Xtreme IV: 1.550 MHz dank des ersten Mod-BIOS stabil (PC Gameshardware)
GeForce GTX Titan X erreicht mit 2 GHz neue Rekorde (Computerbase)

Englisch:
Nvidia's GeForce GTX Titan X graphics card reviewed (The Techreport)
The nvidia geforce gtx titan x review (anandtech)
NVIDIA GeForce GTX TITAN X Video Card PREVIEW (HardOCP)
NVIDIA GeForce Titan X 12 GB (Techpowerup)
nVidia GeForce GTX Titan X Review (TechSpot)
GeForce GTX Titan X Review: Can One GPU Handle 4K? (tom´sHARDWARE)
The NVIDIA TITAN X Performance Review (HardwareCanucks)
Nvidia GeForce GTX Titan X Review (guru3d)
The NVIDIA GeForce GTX TITAN X 12GB GM200 Review (PC Perspective)

--- Update ---

Die Vorstellung läuft. Referenzkarten sollen sofort verfügbar sein und der Preis vom Hersteller ist 999$. Dann sollten die Reviews auch heute noch online gehen.

--- Update ---

So kurze Raidpause, erstes Reviews verlinkt. Mehr danach oder Morgen.

MfG

--- Update ---

Weitere Links hinzugefügt.

MfG

--- Update ---

Da nächstes Jahr ja der Schrink bei den GPU ansteht im Grafikkartensektor wird die "Haltbarkeitszeit" der Titan X kürzer sein als bei den Vorgängern.

--- Update ---

EVGA setzt GTX Titan X unter Wasser (Computerbase)
 
Zuletzt bearbeitet:
Und, hat schon jemand von denen getestet, ob die vollen 12 GB schnell ansprechbar sind?
 
Abseits das sich das nicht mal nVidia leisten könnte bei einem Produkt mit diesem Preis habe ich das noch nicht gelesen das es überprüft wurde. Zum Review lesen habe ich mich auch noch nicht richtig motivieren können bisher.
 
Müsste man klären, ob die X der Vollausbau ist. Habe bisher dazu nichts gelesen.
 
Das könnte bei der abgespeckten Version interessanter werden wenn sie bei der mit den 8 GB der 390x gleichziehen wollen. Mit dem 384Bit Speicherinterface sind ohne Eingriffe 3/6/12/... angesagt.
 
Die Titan X ist zwar bei 4K Auflösungen im Mittel beinah 50% schneller bei Spielen als eine Radeon R9 290X bei einem geringfügig niedrigeren Verbrauch, aber der Vorsprung sollte durch die Radeon R9 390X einholbar sein. Jedenfalls von den technischen Daten verspricht die Radeon R9 390X ebenbürtig zu sein. Wenn man sich von den Spielen abwendet, dann offenbart der GM200 die eine oder andere Schwäche, die nVidia jedoch im Vorfeld bereits eingeräumt hat. Der GM200 eignet sich aufgrund seiner mageren DP-Leistung nicht oder nur eingeschränkt für Tesla Karten und die Quadro Käufer bemängeln den mit 12GB zu gering bemessenen Hauptspeicher. Mal schauen ob AMD beim Erscheinen vom FirePro Ableger des Fiji auf HBM Stacks zurück greifen kann, die 16GB oder 32GB an VRAM erlauben. nVidia will einen VRAM Ausbau von 32GB im nächsten Jahr mit Pascal und ebenfalls HBM bewerkstellig bekommen.

Mehr dazu:
Die Nvidia Quadro M6000 wird die sehr nah an der Titan X angelegte Profi-Grafiklösung auf Basis des GM200-Grafikchips. Mit einher gehen dort neben den 3.072 Shadern auch das 384-Bit-Speicherinterface und die 24 Speicherchips, die 12 GByte GDDR5-Speicher ergeben. Was im Desktop-Umfeld für Begeisterungsstürme sorgt, ist für ein mehrere tausend Euro teures Flaggschiff-Modell der Profi-Serie zu wenig. Viele moderne Anwendungen in diesem Segment lechzen nach mehr Speicher, betont PNY. (...) Angesprochen auf die Tesla-Serie und die vollkommen kastrierte Double-Precision-Leistung der GM200-Chips auf nur noch 1/32tel (0,2 TFLOPs) der Leistung bei einfacher Genauigkeit (7 TFLOPS), sieht PNY für diese Lösungen ein schwieriges Jahr.
Quelle: ComputerBase
 
Nach neueren Informationen beträgt der aufgerufene Preis in Deutschland 1.149,- Euro ...
 
Hm
ist maxwell nicht der "große" chip und sollte DP Leistung haben o_O bin etwas verwirrt mit den aussagen das das bekannt war, den der GM200 ist ja kein gaming chip?
irgendwie werde ich das gefühl nicht los das NV grade ein Problem hat im mittleren Bereich, nur jetzt soll doch auf der GM200 Basis eine quatro kommen, kann das mal bitte wer auflösen.

lg
 
...der GM200 ist ja kein gaming chip?
Es ist umgekehrt. Der GM200 soll anders als GK110 Vorgänger aufs "Gaming" optimiert sein und nVidia hatte bereits im Vorfeld angekündigt allen dafür unnötigen "Ballast" über Bord zu werfen. Die Maxwell Architektur hat somit eine Schlankheitskur gegenüber Kepler erfahren, was obendrein die höhere Energieeffizienz erklärt. Ganz ohne Nebenwirkungen ging dies jedoch nicht ab. Insbesondere die DP-Rechenleistung hat gelitten.
 
Es ist umgekehrt. Der GM200 soll anders als GK110 Vorgänger aufs "Gaming" optimiert sein und nVidia hatte bereits im Vorfeld angekündigt allen dafür unnötigen "Ballast" über Bord zu werfen. Die Maxwell Architektur hat somit eine Schlankheitskur gegenüber Kepler erfahren, was obendrein die höhere Energieeffizienz erklärt. Ganz ohne Nebenwirkungen ging dies jedoch nicht ab. Insbesondere die DP-Rechenleistung hat gelitten.

Das stimmt zwar im Prinzip so, allerdings halte ich das alles für pures Marketing.

GM200 ist 600 mm² groß - das ist die oberste Grenze dessen, was wirtschaftlich sein soll. Und ich denke, dass die DP-Einheiten einfach dem Platzbedarf zum Opfer gefallen sind. NV stand imho vor der Wahl, entweder DP "einzubauen", dann aber weniger Leistungsvorteil gegenüber GM204 zu haben oder mehr Leistungsplus ohne DP - man hat letzteren Weg gewählt. GM200 mit Double-Precision-Einheiten wäre im Gaming-Segment langsamer geworden (möglicherweise sogar merklich), sodass weniger Gamer umgestiegen wären. Und im Profi-Segment wäre das Leistungsplus gegenüber der Ur-Titan vielleicht auch nur moderat gestiegen, sodass man auch hier wenig Potenzial gesehen hat.

Zwar macht NV mit Titan X als Gaming-Karte sicher einen netten Schnitt, freiweillig wird man auf das margenträchtige Profisegment aber nicht verzichten. Ein Segment, wo schonmal mehrere Zehntausend GPUs in einen einzigen Supercomputer wandern - wofür GM200 nun ungeeignet ist.

Ich bin der festen Überzeugung, dass NV wusste, dass sie einen Tod sterben müssen, haben sich für einen entschieden und verkaufen - ganz typisch der letzten Wochen - diesen Umstand als Fortschritt. Und es wird so akzeptiert (ist ja im Grunde genommen auch ok).
 
...verkaufen - ganz typisch der letzten Wochen - diesen Umstand als Fortschritt.
nVidia beschönigt es doch gar nicht. Im Grunde wurden die potentiellen GM200 Käufer sogar rechtzeitig "vorgewarnt".

nVidia Japan (mit oder ohne Wissen von nVidia USA) hatte das verschlechterte FP64:FP32 Ration schon im Januar bestätigt.
 
Hi Spina,

was sich mir nicht erschließest ist das sie den Profi Sektor mit der ganzen Maxwell auslassen, das erschließt sich mir irgendwie nicht.
Normal ist der Sektor ja schon sehr wichtig für NV, in bei 600 mm² macht die aussage etwas wenig sinn für mich, das der platz nicht da
ist. naja das ganze macht für mich einen komischen Eindruck, wenn die 300 AMD noch schneller sein sollte wäre das schon peinlich?
Oder habe ich etwas verpasst wo NV mit den Entwicklungen hin möchte.
 
Oder habe ich etwas verpasst wo NV mit den Entwicklungen hin möchte.
nVidia geht wohl davon aus, dass Kepler in der Lage ist die Stellung im HPC Umfeld solange zu halten, bis Pascal erscheint.

Laut neuester Gerüchte soll Pascal bereits zum Jahreswechsel 2015/16 das Licht der Welt erblicken und wäre damit vorgezogen.
 
Laut 3D Center Spekulation:

In dieser Frage wird es der GM200-Chip jedoch um so schwerer im Profi-Segment haben, wenn man dessen glatt kastrierte DoublePrecision-Fähigkeit ansieht – bei nur 1/32 DP-Rate liegt die DoublePrecision-Performance derart tief am Boden, daß ein Einsatz des GM200-Chips im Tesla-Segment gänzlich unwahrscheinlich erscheint und daß selbst die Quadro-Verkäufe stark betroffen sein dürften. Hieran ergibt sich final auch, wieso nVidia zum Jahreswechsel mit dem GK210-Chip noch einen leicht verbesserten GK110-Nachfolger nur für Profi-Bedürfnisse aufgelegt hat: Seitens nVidia wusste man logischerweise schon lange vorher, daß sich der GM200-Chip kaum fürs Profi-Segment eignet, der GK110-Chip jedoch in der Praxis ein paar kleinere Bremspunkte hat – welche man mit dem GK210-Chip nunmehr ausgemerzt hat. Eine echte neue Profi-Lösung wird nVidia dann erst wieder mit dem GP200-Chip der Pascal-Generation bieten können, welcher allerdings erst tief im Jahr 2016 zu erwarten ist.
 
Pascal ist doch erst mit 20nm angekündigt oder irre ich mich?
Der Prozess dürfte noch etwas dauern.
 
nVidia beschönigt es doch gar nicht. Im Grunde wurden die potentiellen GM200 Käufer sogar rechtzeitig "vorgewarnt".

nVidia Japan (mit oder ohne Wissen von nVidia USA) hatte das verschlechterte FP64:FP32 Ration schon im Januar bestätigt.

Das stimmt. Ich meine das aber auch nicht unbedingt als Beschönigen.

Wenn NV es hinbekommen hätte, Titan X bei gleicher Performance mit ansprechender DP-Leistung zu bauen, dann hätten sie es imho getan. Offenbar können sie es nicht und machen aus dieser Situation natürlich das Beste, was sie können. Nämlich Titan X als das ultimative Stück Hardware für Gamer zu betiteln. Das ist an sich völlig legitim und ich hätte es wohl auch so gemacht.

Ich bin halt nur der Meinung, dass man der Aussage von NV nicht ganz die Wichtigkeit beimessen sollte, wie es jetzt viele tun. Denn imho diese diese Aussage aus der Not heraus geboren.



@Mente:
Wenn ich mich recht erinnere, dann hatte man ausgehend von GM204 und einer 50-prozentigen Steigerung der Spezifikationen ziemlich genau das an Platzbedarf ermittelt, was jetzt bei GM200 rausgekommen ist.

600 mm² ist absolut grenzwertig. Sowohl wirtschaftlich als auch in Sachen defekter Einheiten. Deshalb wird alles gespart, was irgendwie geht, um den Platzbedarf nicht ausufern zu lassen. Mit DP-Einheiten wäre GM200 noch größer geworden und wäre möglicherweise aus Yield-Gründen unwirtschaftlich geworden - oder man hätte vielleicht auch viel Ausschuss produzieren müssen, den man bisher nicht anderweitig verwenden kann.

Alles pure Spekulation meinerseits, allerdings bin ich mir ziemlich sicher, dass der Platzbedarf eine nicht unwichtige Rolle bei dem Verzicht auf die DP-Leistung gespielt hat.
 
Laut 3D Center Spekulation...
Diese Spekulationen sind durchaus glaubwürdig, obwohl bei 3D Center in letzter Zeit viel Unsinn verzapft wurde. Wenn man jedoch davon ausgeht, dass die Pascal Generation bereits Anfang und nicht erst Mitte 2016 das Licht erblickt, dann wird nVidia trotzdem nicht mit dem GP200 Monsterchip den Anfang machen, sondern erst einmal die Mittelklasse bedienen bis Prozess und Architektur erprobt sind. Das Flaggschiff braucht mindestens zwei bis drei Quartale Vorlauf. Zum Jahreswechsel sollte man nicht mit dem GP200 Chip rechnen. Die Lebenserwartung des GM200 wären andernfalls viel zu gering.
Pascal ist doch erst mit 20nm angekündigt oder irre ich mich? Der Prozess dürfte noch etwas dauern.
Ein Muster hat nVidia bereits vor einem Jahr herum gezeigt. Allerdings nicht dessen Lauffähigkeit unter Beweis gestellt. ;)
 
oha was haben Sie den da gemacht.

5 Sone (2890x ~4,5 sone ) und immer noch 82 Grad heiß.
Ok die Leistung ist im grünen Berreich aber niucht herausragend.
Der Preis ist wohl mehr als übertrieben.
Der Verbrauch für die Leistung ist in Ordnung.

Ok Sie hat 12GB VRAM aber im Vergleich zur nv 980 absolut überzogen.
Für 4k inkl AA etc ist Sie zu langsam und für normale Spieler sind 12GB aktuell auch eher nutzlos. Das wird sich auch in der nächsten Zeit nicht ändern. Spiele entwickler werden in Richtung 4GB VRAM optimieren.

Die alte Titan war ja noch ein Bringer mit Ihren 6GB, die man auch gefüllt bekommen hat und die Leistung war bzw ist auch mehr als in Ordnung.

Aber das Teil für den Preis. Wer die kauft hat echt zuviel Geld, was er verblasen kann.

700 Euro + 100 Euro für die 12 GB VRAM wären in meinen Augen als Releasepreis noch zu vertreten.

Der einzige Grund für sone Karte als Spieler, der mehr als Minecraft spielt wäre 2-3 von den Karten unter Wasser und dann 3x4K Displays.
Aber da Bau ich mir lieber 4xnv 980 in nen PC und bekommen noch ne Highendwasserlühlung dazu + nen fetten i7 8 Kerner und 64GB RAM.
Die Karte ist als SingleGPU einfach noch zu langsam um die 12 GB wirklich effektiv zu nutzen.
 
oha was haben Sie den da gemacht.

5 Sone (2890x ~4,5 sone ) und immer noch 82 Grad heiß.
Ok die Leistung ist im grünen Berreich aber niucht herausragend.
Der Preis ist wohl mehr als übertrieben.
Der Verbrauch für die Leistung ist in Ordnung.

Ok Sie hat 12GB VRAM aber im Vergleich zur nv 980 absolut überzogen.
Für 4k inkl AA etc ist Sie zu langsam und für normale Spieler sind 12GB aktuell auch eher nutzlos. Das wird sich auch in der nächsten Zeit nicht ändern. Spiele entwickler werden in Richtung 4GB VRAM optimieren.

Die alte Titan war ja noch ein Bringer mit Ihren 6GB, die man auch gefüllt bekommen hat und die Leistung war bzw ist auch mehr als in Ordnung.

Aber das Teil für den Preis. Wer die kauft hat echt zuviel Geld, was er verblasen kann.

700 Euro + 100 Euro für die 12 GB VRAM wären in meinen Augen als Releasepreis noch zu vertreten.

Der einzige Grund für sone Karte als Spieler, der mehr als Minecraft spielt wäre 2-3 von den Karten unter Wasser und dann 3x4K Displays.
Aber da Bau ich mir lieber 4xnv 980 in nen PC und bekommen noch ne Highendwasserlühlung dazu + nen fetten i7 8 Kerner und 64GB RAM.
Die Karte ist als SingleGPU einfach noch zu langsam um die 12 GB wirklich effektiv zu nutzen.

Ich muss sagen da hat der tspoon nicht ganz unrecht. Es wird aber genug Leute geben die sie kaufen denke ich. Und wenn es nur um das haben geht. Ich warte auf die nächste Generation.
 
Die Sperrspitze ist immer teuer. Schaut euch den Core i7-5960X von Intel an. Als Extreme Edition kostet dieser 1059 US-Dollar (UVP) und ist mit seinen 8x 3,0/3,5 GHz wirklich schnell. Ein "einfacher" Core i7-4970K (mit 4x 4,0/4,4 GHz) kostet dagegen mit "nur" 350 US-Dollar (UVP) rund ein Drittel. Ist die Extreme Edition um denselben Faktor schneller? Wohl kaum. Selbst bei MT Software wird dieser bei < 1,5x liegen. Umso höher man in der Leistungspyramide klettert, umso höher fällt der Preis aus, den den Hersteller mit dem Erklimmen jeder Stufe, aufrufen kann. Das war schon immer so. Gerade das macht die gehobene Leistungsklasse so lukrativ. Durch die hohen Margen rechnen sich auch kleine Stückzahlen. Wenn man kleine Brötchen backt, müssen sich diese schon wie geschnittenes Brot verkaufen, damit man in die Gewinnzone kommt. Diese "Kleinvieh macht auch Mist"-Taktik fährt AMD zur Zeit bei den APUs erfolgreich.
 
Zuletzt bearbeitet:
Für 4k inkl AA etc ist Sie zu langsam und für normale Spieler sind 12GB aktuell auch eher nutzlos.

Das mussten schon 12 sein, mit 6 hätte es dann mies gegen über der 390x mit 8GB ausgesehen wenn die dann mal erscheint.
 
@ Spina

Ich weiß was du meinst. deswegen habe ich ja ein 4790K ;D

Ich muss auch ehrlich sagen das die 12 GB momentan überdimensioniert sind. Wenn ich mir Bf4 anschaue in 2160p ( DSR) mit 4xMSAA auf Ultra auf einem 64er Server dann sind die 12 GB der Titan X meiner Meinung nach Unnötig. Bei meiner 980er liegen da 3,5-3,6 Gb VRam an bei 50 FPS AVG. Dazu kommt noch das der Kühler ein Witz ist für die 999 Dollar bzw 999 Euro+ was sie kosten wird.

Ich denke da wird AMD mit einer R9 390X mit 8 GB und geringerem Preis Nvidia die Hölle heiß machen. Aber mal abwarten. Kann sein das Nvidia noch ne 980ti bringt mit 6-8 GB Vram.
Ich persönlich werde auf keine Fall eine Titan X kaufen. Die 980er ist mehr als ausreichend.
 
Deutscher Listenpreis ist 1149 Euro
 
Zurück
Oben Unten