NVIDIA GT200 mit 192 Streamprozessoren?

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Wie NVIDIA gestern bei einer Presseveranstaltung in München bestätigte, soll der GT200 über eine Gesamtzahl von rund einer Milliarde Transistoren verfügen, was die Zahl von 192 Streamprozessoren realistisch erscheinen lässt.

Vergleicht man die Transistorenzahl der beiden aktuellen Grafikchips G92 und G94, die auf aktuellen GeForce-Grafikkarten der achten und neunten Generation zum Einsatz kommen, so bestätigt sich diese Vermutung. Gegenüber dem mit "nur" 64 Streamprozessoren ausgestatteten G94 besitzt der G92 (128 SPs) ungefähr 250 Millionen Transistoren mehr. Dies legt die Vermutung nahe, dass der GT200 gegenüber dem G92 ebenfalls 64 weitere Streamprozessoren besitzt, da er abermals rund 250 Millionen Transistoren mehr besitzt.

<center><table><tr><td><table cellpadding="5" cellspacing="0" width="500" style="border-color:#000000; border-width:1px; border-style:solid;"><tr><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Grafikchip</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Streamprozessoren</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">ROPs</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">TMUs</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Transistoren</font></b></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>GT200</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>192*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>24*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>96*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>rund 1 Milliarde</b></center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>G92</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>128</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>16</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>64</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>754 Millionen</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>G94</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>64</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>8</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>32</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>505 Millionen</center></font></td></tr></table></td></tr></table></center>
* Bei den genannten Daten handelt es sich ausschließlich um Spekulationen.

<b>Quelle:</b> <a href="http://www.golem.de/0804/58955.html" target="_blank">Nvidia bestätigt: "GT-200" mit 1 Milliarde Transistoren</a>

<b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1207679745">NVIDIA GeForce 9800GX2 soll bereits im Juni auslaufen</a>
 
Naja der GT200 wird sicherlich etwas mehr sein als nen G92 mit 192 Shadern ;)
 
Naja der GT200 wird sicherlich etwas mehr sein als nen G92 mit 192 Shadern ;)
Darum geht es ja nicht, er wird nur wohl aufgrund der Transistorenzahl nicht mehr als 200 Streamprozessoren haben, wie viele gerne hätten...

Je stärker sich der GT200 vom G92 unterscheidet desto unwahrscheinlicher wird auch eine höhere Streamprozessorenzahl.
 
Ich denke schon das der G200 hauptsächlich eine Aufstockung der Shader bekommt. Ansonsten dürften die Verbesserungen eher marginal sein. Rein Füllraten technisch braucht nVidia nicht aufzustocken, da davon derzeit schon mehr als genug da ist. Kleine Verbesserungen in den Timings, Z-Buffer, vielleicht eine optimierter Chipaufbau und dann nur noch Shader. Und 50% mehr Shader, sind ein Haufen an Mehrleistung. Stimmen dann noch die Takraten..... und hoffen wir mal das sie auf 55nm runter gehen, wie sie es bei den Mobile GPUs ja jetzt machen.... dürfte der Chip recht Leistungsstark werden.
Interessant wäre zu wissen wie der Speicher angebunden sein wird und wie hoch die Speicherbandbreite sein wird, da sich ja bei der jetzigen Generation schon zeigt das nVidia hier abhängiger von der Speicherbandbreite ist als ATI.
 
wie viele Streamprozessoren haben eigentlich die AMD Graka´s ich meine die 4xxx Serie
 
wie viele Streamprozessoren haben eigentlich die AMD Graka´s ich meine die 4xxx Serie

Das kann dir derzeit wohl kaum einer sagen. Problem ist auch, das man auch die Streamprozessoren nicht direkt vergleichen kann. ATI gibt ja gerne an das sie derzeit auf den 3850/3870/2900 Karten 320 davon haben. Das stimmt allerdings nur bedingt. Während nVidia derzeit 128 hat, verwendet ATI im eigentlichen Sinne nur 64. Auf 320 kommt man nur, wel jeder der ATI Stremprozessoren quasi 5 Berechnungen gleichzeitig durchführen kann womit man auf die 320 kommt. Allerdings müssen diese 5 Befehle/Berechnungen zusammen hängen damit es genutzt werden kann. Benötigt eine bestimmte Berechnung nur 2 Berechnungen/Befehle, liegen 3 Brach. Bei nVidia berechnet jeder Streamprozessor nur 1 Befehl.
Im Grunde sind die Streamprozessoren schwächer als bei ATI, nur gleicht das nVidia mit extrem hohen Shadertaktraten aus. Bei ATI sind die Shadertaktraten am Chiptakt gebunden. Ich bezweifel das es beim R700 anders aussehen wird. Eine Änderung dieses Aufbaus erfordert eine gänzlich neue Entwicklung des Chips, was sehr lange dauert und unheimlich kostenintensiv ist. Der R700 wird demnach auf dem R600/670 aufbauen und lediglich verbessert und erweitert werden.

Zumindest ist dies meine Meinung.
 
Der R700 wird demnach auf dem R600/670 aufbauen und lediglich verbessert und erweitert werden.

Zumindest ist dies meine Meinung.


jetzt verstehe ich auch den unterschied. Aber was ist wenn AMD es denoch geschaft hat den R670 also der neue R700. Wäre dann teoretisch die neue AMD GPu dann um a eckn besser??
Die 3850/3870 sind wie du sagst nur verbesserungen gegenüber der HD 2900 und um a eckn
besser vom Verbrauch und Leistung zumindest, die 3870

Danke für die Information*clap*
 
1.) Was die Streamprozessoren angeht, so kann man das grob so vergleichen:
AMD hat die halben Prozessoren mit ca. 1/2 des Taktes. Dafür kann ein Streamprozessor ähnlich wie bei SSE 5 gleiche Operationen gleichzeitig berechnen. Dadurch ist die theoretische Leistung etwas höher, Leider bleibt davon in der Realität davon nicht viel übrig, da ein Farbwert eben nur 3 Werte hat (RGB) und vielleicht noch einen Alpha Wert, aber da weiß ich nicht, ob der auch eine Rolle bei der Berechnung spielt.

2.) Also 192 Streamprozessoren würde ich einmal als eine grobe Enttäuschung werten bei 55nm, wenn sich an der Architektur nichts ändert. Die 8800 GTX mit 90nm hatte schon 128 davon und jetzt ist bei gleicher Fläche die 2,5-3 fache Anzahl an Transistoren drin. Man sollte hier also schon knapp 2 Mrd. für das High End Modell erwarten können bzw. mindestens 256 Stream Einheiten mit ein paar Verbesserungen an der Architektur und zusätzlich 512 Bit Speicherinterface. Alles andere ist wieder nur ein Mainstream Modell wie die 8800 GT/GTS.
 
Eine GT200 mit 700MHz Takt würde alles aktuelle an Single-Grafikkarten nahezu deklassieren, eine 3870 X2 würde wohl auch noch gut überholt und eine 9800GX2 mindestens erreicht. Von daher sehe ich da jetzt keinen großen Grund zur Enttäuschung.

Gegenüber dem G80 wurde bereits beim G92 PCIe 2.0 und die VP2 integriert was schonmal Transistoren gekostet hat.

Im besten Falle bringt 55nm die Möglichkeit 2,7 mal mehr Transistoren auf der gleichen Fläche zu integrieren, jedoch darf man nicht die steigenden Taktraten, die den Vorteil der reinen Verkleinerung zum Teil aufheben. Der GT200 wird aber definitiv deutlich kleiner als der G80...
 
2.) Also 192 Streamprozessoren würde ich einmal als eine grobe Enttäuschung werten bei 55nm, wenn sich an der Architektur nichts ändert. Die 8800 GTX mit 90nm hatte schon 128 davon und jetzt ist bei gleicher Fläche die 2,5-3 fache Anzahl an Transistoren drin. Man sollte hier also schon knapp 2 Mrd. für das High End Modell erwarten können bzw. mindestens 256 Stream Einheiten mit ein paar Verbesserungen an der Architektur und zusätzlich 512 Bit Speicherinterface. Alles andere ist wieder nur ein Mainstream Modell wie die 8800 GT/GTS.
Willst du das auch bezahlen?
Sag jetzt aber nicht, mehr als 250 Euronen geb ich aber dafür nicht aus.
Guck dir mal die paar Transistoren der Cpu an und wie teuer die werden können, und davon ist noch ein deftiger Anteil nur Cache.
Und jetzt forderst du eine Gpu die Cpu um längen schlägt was Transistoranzahl und Fläche betrifft.
Was würdest du dafür zahlen wollen?
 
@Makso
Wenn ATI den R700 komplett neu designet hat, und aus den Fehlern beim R600/670 gelernt hat (gibt ja einige) sollte der R700 sehr schnell werden. Aber schneller als nVidia? Zweifelhaft. Im Grunde stehen beide Hersteller immer auf ähnlichem Leistungslevel. Das derzeit nVidia so überragend in der Leistung ist (bei einer einzelnen GPU) liegt wohl eher darann das DX10 eine Umdenkung in der Technologie hervorgerufen hat und nVidia bei ihrem ersten Schritt einfach konservativer vorgegangen ist und damit einfach besser lag.
Während ATi auf reine Shaderleistung gesetzt hat, diese auch noch technisch extrem aufwendig gestalttet hat (durch die 5 Berechnungen pro Shadereinheit), blieb nVidia auf dem Boden, konstruierte einfach Shader Units und erhöhte neben bei noch enorm die Füllraten der Karten. Letzteres hat ATI schlichtweg versäumt. Eine 3870 hat quasi die selbe Pixelfüllrate wie eine X1950XT.

@NOFX
Ich bin nicht der Meinung das eine GT200 mit 700Mhz Chiptakt "deutlich" schneller ist als eine X2 3870/ 9800 GX2. Eigentlich bin ich überzeugt das diese etwa auf dem gleichen Leistungsniveau liegt. 192 Shader sind 50% an Merhleistung gegenüber einer 8800Ultra (grob gesagt). Eine X2 3870/ 9800 GX2 sind ebenfalls ca. 50% schneller als diese wenn man mal gut skalierende Spiele nimmt. Von daher würde ich eher sagen das die GT200, sollte sie denn wirklich nur eine Shaderaufstockung bekommen haben, natürlich mit den damit verbunden Aufstockungen bei den ROPs und TMUs, wird sie die derzeitigen DualGPU Karten ablösen, mehr auch nicht.
Allerdings sollte jeder eingestehen das dies schon eine beachtliche Leistung ist und generell ungefähr der Leistungssteigerung jeder neuen GPU Generation entspricht (die Refresh Karten mal außen vor gelassen)
 
wie viele Streamprozessoren haben eigentlich die AMD Graka´s ich meine die 4xxx Serie
Man geht bisher von 480 aus (96x 5D). Aber wie schon gesagt wurde, man kann die Streamprozessoren nur bedingt vergleichen. ATI kann zB pro Streamprozessor ein ADD und ein MUL pro Takt ausführen, nVidia ein ADD und zwei MUL. Ein MUL bei nVidia wird in der Praxis allerdings für Sonderfunktionen (sin, cos) benutzt und kann damit nur bedingt zur eigentlichen Rohleistung beitragen. Bei ATI hingegen übernimmt diese Sonderfunktionen ein Streamprozessor eines Shaders (5D). Es ist übrigens falsch, dass bei ATI Streamprozessoren brach liegen, wenn ein entsprechend nicht grosser Vektor auf den jeweiligen Shader losgelassen wird. Die Shader können genauso skalar arbeiten. Wie gut die Auslastung ist, hängt letztendlich vom jeweiligen Szenario und der Optimierung des Treibers ab.
Letztendlich muss man sagen, die Shaderleistung pro Takt ist bei ATI deutlich höher. nVidia versucht hohe Taktraten dagegen zu setzen.
 
@NOFX
Ich bin nicht der Meinung das eine GT200 mit 700Mhz Chiptakt "deutlich" schneller ist als eine X2 3870/ 9800 GX2. Eigentlich bin ich überzeugt das diese etwa auf dem gleichen Leistungsniveau liegt.
Eine GT200 mit 700MHz Takt würde alles aktuelle an Single-Grafikkarten nahezu deklassieren, eine 3870 X2 würde wohl auch noch gut überholt und eine 9800GX2 mindestens erreicht.
Wir sagen doch das gleiche...

Nur die X2 bzw. GX2 werden noch Land sehen, das wird beim RV770 aber auch nicht anders sein.
 
1.) Bis auf die letzte X1800XT haben meine Grafikkarten immer um die 400 Euro gekostet. Nur das letzte Mal ware gerade nichts ordentliches am Markt, da die 8800 GTX noch nicht verfügbar war, sonst hätte ich eh noch ein bisschen gewartet, wenn ich gewusst hätte, wie schnell die ist.

2.) Dass der neue High End Grafikchip von Nvidia deutlich schneller sein wird, als die Mainstream Chips um die 130 Euro, sollte denke ich einmal klar sein, sonst würde da etwas grob nicht stimmen. Bis vor kurzem hat man um den Preis nur eine verkrüppelte 8600 GT oder 2600 XT bekommen. Wenn der neue Chip, der Mitte 2008 kommt (wahrscheinlich wird es eher Herbst) nur ca. 50% schneller ist, wie die Karte, die es Ende 2006 gegeben hat, so ist das bei Grafikchips eher mies. Vor allem, wenn man bedenkt, dass es dann bis mindestens Mitte 2009 dauert, bis was neues kommt. Da ist man ja mit einer 8800GTX, die man zu Weihnachten 2006 gekauft hat ja 3 Jahre lang im Mittelfeld dabei und kann aktuelle Titel auch in 1920x1200 flüssig spielen. Das war noch nie der Fall bisher.

3.) Spiele, die gut mit Dual Karten skalieren? Gibt es die wirklich oder ist das nur ein Mythos? Ich meine hier nicht die Average FPS, sondern wirklich sichtbare FPS und keine 2 fast gleichen Frames hintereinander, wodurch man erst wieder Mikroruckler hat und trotz 40-50 fps nicht flüssig spielen kann. Auch ein neuer Treiber, der die Frames verzögert, dass sich das Problem nicht mehr so leicht nachweisen lässt, wird nicht viel bringen. Ich schätze den Vorteil von 2 Grafikchips (entweder Dual Karte oder SLI/Crossfire) auf ca. 10-20% im Schnitt. Mehr wird es kaum sein.
 
Der G80 war schon ein sehr großer Schritt, das nach diesem erstmal nicht viel folgen würde, war ja absehbar. Das gleiche war ja auch bei dem NV40 der Fall...

Verzögerung bei den Frames für Dual-Grafikkarten werden wohl nicht nach dem fertigen Rendern eingebaut, sondern vorher. Daher wird dann auch der Bildfluss gleichmäßiger, obwohl es ein paar Prozent Leistung kosten wird. Wenn die Hersteller es im Treiber dem Anwender freistellen, welche Modus er nutzen möchte, also unverzögerte Bildausgabe für hohe Benchmarkwerte oder gleichmäßige für guten Spielfluss, dann ist odch alles in Butter.
 
Ich versteh nicht so wirklich warum man bei CrossFire und SLI nicht auf die Technik vom ehemaligen Hersteller 3Dfx setzt. Das war effizient. Microruckler gab es nicht und die Leistung wurde fast 1:1 umgesetzt. Warum dieser Umstand heutzutage?
 
1.) Nvidia weiß nicht einmal genau an was es liegt und AMD noch weniger. Die tricksen jetzt irgendwie herum, um das Problem zu vertuschen bzw. nicht mehr so leicht messbar zu machen:
http://www.computerbase.de/news/har...z/die_multi-gpu-mikroruckler_der_stand_dinge/

Doch was sagen ATi und Nvidia zu diesem Problem? Nachdem anfangs größtenteils verwirrte Gesichter zu sehen waren, wenn man die beiden Grafikchipspezialisten auf dieses Phänomen angesprochen hat, haben beide Konkurrenten mittlerweile die Mikroruckler nachstellen und auch analysieren können. Am weitesten scheint dabei Nvidia gekommen zu sein, denn dort stellt man mit einem zukünftigen Treiber eine Lösung in Sicht. Dieser soll einen Scheduler enthalten, der die fertigen Frames im richtigen Zeitabstand an den Monitor ausgeben soll. Genauere Details zur Problemlösung oder ein Erscheinungsdatum des Treibers konnten wir leider nicht in Erfahrung bringen.

2.) Damals wurde noch Pixel für Pixel berechnet und das Bild einfach in der Mitte geteilt. das ist heute unmöglich, alleine schon wegen AA. Einmal abgesehen davon ist die reine Füllung des Bildschirms mit Pixeln das geringste Problem und die ganze Leistung geht für diverse Effekte drauf bzw. feinere Texturen, die sich über das ganze Bild erstrecken.
 
Das Scan Line Interleave von 3DFX hat das Bild zeilenweise geteilt, erste Verionen von NVIDIAs SLI haben das Bild horizontal geteilt (Split Frame Rendering SFR), was aber durch die doppelten Geometrie-Berechnungen relativ ineffektiv (aber für den Spieler sehr angenehm) war. Mittlerweile wird nurnoch AFR (Alternate Frame Rendering) eingesetzt, was eben Probleme mit den unterscheidlcihen Frameabständen mit sich bringt.
 
....
2.) Dass der neue High End Grafikchip von Nvidia deutlich schneller sein wird, als die Mainstream Chips um die 130 Euro, sollte denke ich einmal klar sein, sonst würde da etwas grob nicht stimmen. Bis vor kurzem hat man um den Preis nur eine verkrüppelte 8600 GT oder 2600 XT bekommen. Wenn der neue Chip, der Mitte 2008 kommt (wahrscheinlich wird es eher Herbst) nur ca. 50% schneller ist, wie die Karte, die es Ende 2006 gegeben hat, so ist das bei Grafikchips eher mies. Vor allem, wenn man bedenkt, dass es dann bis mindestens Mitte 2009 dauert, bis was neues kommt. Da ist man ja mit einer 8800GTX, die man zu Weihnachten 2006 gekauft hat ja 3 Jahre lang im Mittelfeld dabei und kann aktuelle Titel auch in 1920x1200 flüssig spielen. Das war noch nie der Fall bisher.

Aktuelle Spiele in 1920x1200 kannst Du auf einer 8800GTX nur spielen, wenn Du deutliche Abstriche in den Qualitätseinstellungen machst. Versuch mal, Crysis in DX10 very high in HD zu spielen, viel Spaß an der Diashow.....ansonsten aber ist richtig, wer Mitte 2006 eine GTX gekauft hat, hatte sehr lange absolutes high-end. Ich hätte damals aber auch nicht damit gerechnet, dass sie so lange hält, weil man halt so im Hinterkopf hat, nach 1 bis 1,5 Jahren ist spätestens eine ganz neue Generation da. War aber nicht so.....

Ansonsten war der G80 eben ein extremst guter Wurf, der hat absolut alles dermaßen in den Schatten gestellt, dass es allen den Atem verschlagen hat. Ati hat bis zum heutigen Tage keine single-GPU, die daran reicht, shader-Debatte hin oder her! Das kann man nicht bei jeder neuen Generation erwarten. Aus meiner Sicht war es sogar ein recht einmaliges Ereignis, einen derartigen Leistungssprung hat es auch vorher eigentlich nicht gegeben. Wenn die Leistung deutlich über allen bisher erhältlichen Single-GPU-Lösungen liegen wird, und auch die aktuellsten dual-GPU Lösungen noch in Schach halten kann, dann ist das genau das, was man von einer neuen GPU-Generation erwarten kann. Und ich würde tippen, das wird die GT200 leisten können. Warten wir die ersten benches ab.....
 
Der G80 kam erst Ende 2006 raus, von daher passen die 1,5 Jahre ja schon fast...

Der G80 war mit der TDP aber auch schon relativ am Ende der Fertigugnsmöglichkeiten und konnte auf GTX- und erst recht Ultra-Niveau imho nur dank großer Stückzahlen an GTS udn Selektion gebracht werden.

Im G92 steckt ja vom Takt her deutlich mehr Potential und auch die TDP ist deutlich niedriger...
 
Zurück
Oben Unten