NVIDIA stellt GeForce 8700M GT vor

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Anfang Mai hatte NVIDIA bereits mit den GeForce 8600M- und 8400M-Reihen die ersten DirectX10-Grafikchips für Laptops vorgestellt (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1178734412">wir berichteten</a>), jetzt folgt mit der GeForce 8700M GT das neue Topmodell.

Anders als der Name vielleicht vermuten lassen würde, handelt es sich herbei nicht um einen komplett neuen Grafikchip mit größerer Anzahl an Streamprozssoren oder breiterer Speicheranbindung, sondern anscheinend lediglich um eine höher getaktete Version des bereits bekannten G84.<ul><table cellpadding="2" cellspacing="0" border="1" style="text-align: center;"><tr><th><b>GPU</b></th><th><b>Streamprozessoren</b></th><th><b>GPU-Takt</b></th><th><b>SP-Takt</b></th><th><b>Speichertakt</b></th><th><b>Speicheranbindung</b></th><th><b>max. Speicherausbau</b></th></tr><tr><td><b>GeForce 8700M GT</b></td><td><b>32</b></td><td><b>625 MHz</b></td><td><b>1250 MHz</b></td><td><b>800 MHz</b></td><td><b>128 Bit (Dual-Rank)</b></td><td><b>512 MB</b></td></tr><tr><td>GeForce 8600M GT</td><td>32</td><td>475 MHz</td><td>950 MHz</td><td>700 MHz</td><td>128 Bit</td><td>512 MB</td></tr><tr><td>GeForce 8600M GS</td><td>16</td><td>600 MHz</td><td>1200 MHz</td><td>700 MHz</td><td>128 Bit</td><td>512 MB</td></tr><tr><td>GeForce 8400M GT</td><td>16</td><td>450 MHz</td><td>900 MHz</td><td>600 MHz</td><td>128 Bit</td><td>512 MB</td></tr><tr><td>GeForce 8400M GS</td><td>16</td><td>400 MHz</td><td>800 MHz</td><td>600 MHz</td><td>64 Bit</td><td>256 MB</td></tr>
<tr><td>GeForce 8400M G</td><td>8</td><td>400 MHz</td><td>800 MHz</td><td>600 MHz</td><td>64 Bit</td><td>256 MB</td></tr></table></ul>Warum NVIDIA hier explizit Dual-Rank in Bezug auf die Speicheranbindung angibt, ist unklar. Normalerweise wird dieser Begriff im Zusammenhang mit RAM-Modulen benutzt und gibt Auskunft darüber, wieviele Speicher-Ranks maximal benutzt werden können. Dies wiederum bestimmt die maximale Anzahl einzelner Speicherchips (bei gleichen Datenleitungen) die verbaut werden können.

<b>Quelle:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3215929">NVIDIA präsentiert den leistungsstärksten DX10 -Grafikprozessor für High-Performance-Notebooks </a>

<b>Links zum Thema:</b>
<ul><li><a href="http://pc.watch.impress.co.jp/docs/2007/0613/nvidia.htm" target="b">GeForce 8700M GT [PC-Watch]</a></li><li><a href="http://de.wikipedia.org/wiki/Speichermodul#Ranks" target="b">Speichermodul - Ranks [Wikipedia]</a></li>
 
Anfang Juli dann der 8800M GT? ;D
Würde ja so ungefähr im Zeitplan liegen.
 
Wie schnell ist der eigentlich ?
 
Kannst die oben genannten Daten ja mit den Desktopchips vergleichen und dann anhand deren Benchmarkergebnissen auf die Leistung des 8700M schließen.

So ganz grob würde ich sagen: Für einen Notebookchip schon ganz ordentlich. Wichtiger wäre mir aber eine Angabe des Stromverbrauchs im 2D, denn das würde eher was darüber aussagen, ob man sowas im Notebook haben will.
 
Ansonsten bei PC-Watch gucken, die haben da eine Präsentationsseite, die auf ungefähr 30% Mehrleistung in Spielen und mehr in Benchmarks schließen läßt.
 
Wichtiger wäre mir aber eine Angabe des Stromverbrauchs im 2D, denn das würde eher was darüber aussagen, ob man sowas im Notebook haben will.

Und gerade hier liegt der Haken!

Dies verhält sich nämlich bei der Geforce Go 7XXX Serie so, dass die
Go 7600 GT, Go 7800 GTX, Go 7900 GTX und die Go 7950 GTX ware
Stromfresser sind, im Vergleich zu den abgeleiteten Standard-Pendants
wie Go 7600, Go 7800 und Go 7900...

Da gilt es wirklich abzuwarten, welche Stromspartechnik genutzt werden kann, und
wie diese sich auf den Verbrauch der Chips auswirkt...
Denn leider ist es bei den Grafikchips nicht so, dass man Sie frei nach Last automatisch
runterskalieren kann in GPU- und Speichertakt...
Denn vergleichsweise würde eine Geforce Go 7950 GTX mit nur 200 Mhz GPU-Takt und sehr niedrigem bzw. sogar ausgeschaltetem Speichertakt (dafür aber den Systemspeicher nutzen alias SHARED) genauso viel leisten wie ein ungebremster Intel GMA 950 Express Grafikchip...bezogen auf die Desktop 2D-Darstellung...

Ich frage mich eigentlich bis heute, warum mann denn keinen Kontrollmechanismus in einen 3D-Chip einbaut, der die Frameraten mißt und ab , weiß jetzt nicht, ca. 50 Frames / Sekunde die GPU und den Speicher soweit runterfährt, als dass die 50 FPS relativ stabil bleiben würden...mit einer Schwankungsbreite von ca. 20 %...
Und das für 2D- sowie 3D-Darstellungen...
Eine Grafikeinheit kann doch schon am Ansatz messen, wieviel FPS sie gerade schafft...dafür muss nicht unbedingt ein Benchmark oder eine Zusatzsoftware her...

Aber das wäre bestimmt wieder zu kompliziert, bzw. brauch heute nich niemand...

Mein Gedanke hierzu...

MfG Eisfuchs
 
Du kannst doch mit dem RivaTuner die Karte im 2D-Modus runtertakten.
Ich glaube viel eher, dass der Ansatz, nur eine GraKa im System zu haben, schon falsch ist.

Vor ein paar Jahren gab es von cebop ein System, mit dem man per Schalter einfach von der 3D-GraKa auf die Onboard-GraKa umschalten konnte.
Das fand ich innovativ und sehr gelungen. Damit wurden dann auch ordentliche Standby Zeiten erreicht, ohne dass man viel dafür machen musste. Denn wenn ich nunmal mit der Kiste 3D-Spiele spiele, dann is der Akku ratzfatz leer.
Von daher sollte eigentlich jedem, der sich so ne Kiste kauft, von vornherein klar sein, dass er keine 3-XX Stunden damit ohne Saft aus der Steckdose spielen/arbeiten kann.
 
Im Jahr 2007 noch einen Mobil(!)Chip zu bewerben ohne die Leistungsaufnahme zu benennen zeugt von nahezu grenzenloser Dummheit und/oder Arroganz.

Ich bin gespannt ob die Helden bei ATI endlich ihre Hausaufgaben gemacht haben oder auch bei der nächsten GPU-Generation wieder neben NVIDIA mit der Eselsmütze in der Ecke stehen.
 
welchen treiber muss ich für den 8600M GT und windows vista 32 bit verwenden?
bei nVidia steht die karte in keiner "support-list"
 
Zurück
Oben Unten