NVIDIAs Hybrid SLI: Mehr Leistung und weniger Verbrauch

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Mit Hybrid SLI plant NVIDIA nach Informationen von X-bit labs ein Desktop-Pendant zu der kürzlich von AMD in Kombination mit der Puma-Mobil-Plattform vorgestellten PowerXPress-Technologie (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1179482432" target="b">wir berichteten</a>).

Dabei handelt es sich in beiden Fällen um die Möglichkeit, zwischen einer integrierten Grafikeinheit und einer zusätzlichen dedizierten zu wechseln, ohne merkbare Verzögerungen oder Einschränkungen (wie z.B. Bildschirm umstecken). Der Vorteil für dieser Idee liegt auf der Hand, so kann im reinen 2D-Betrieb die meist stromhungrige 3D-Grafikkarte komplett abgeschaltet werden, was bei heutigen Grafikkarten, die im Idle-Betrieb noch über 70W verbrauchen, zum erheblichen Stromeinsparungen führen kann.

NVIDIAs Hybrid SLI soll sogar noch einen Schritt weiter gehen und die integrierte Grafikeinheit an den 3D-Berechnungen beteiligen und dadurch noch einen Geschwindigkeitsschub bekommen. Inwieweit dies jedoch der Fall ist, ist unklar, so bietet eine derzeitige integrierte Grafikeinheit nicht einmal 10% der Leistung einer Mainstream- oder High-End-Grafikkarte. Rechnet man einen gewissen Effektivitätsverlust durch SLI mit ein, so wird diese Hybrid SLI-Technik wenig bis gar keine Leistungsgewinne bringen - Probleme mit unterschiedlichen DirectX-Fähigkeiten einmal komplett beiseite gelassen.

<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20070625083756.html" target="b">Nvidia Readies Hybrid SLI Technology.</a>
 
Das klingt nach einer sehr vorbildlichen Idee. Ich könnte mir sehr gut vorstellen, ein Board mit integrierter Grafik zu verwenden und dann beim Spielen eine leistungsstarke GraKa hinzu zu schalten. Der Leistungsgewinn, der evtl durch dieses hybrid-sli entsteht wird wohl bestenfalls marginal ausfallen, aber es geht ja vor allem um die Stromersparnis beim Surfen, Office-Arbeiten etc.
 
Ein äußerst wünschenswerter Schritt! Das wäre für mich der Grund mir wieder eine echte Highend-Grafikkarte zuzulegen. Bisher stört mich an den Teilen nämlich der exorbitante Idle-Stromverbrauch.

Ich frage mich allerdings, wie das mit dem Display-Output funktionieren soll. Kann eine dedizierte Grafikkarte ihr Signal auch über den Ausgang einer integrierten Grafik ausgeben? Ansonsten müsste man ja ständig die DVI- bzw. VGA Kabel umstöpseln.

Edit: Ah, ich lese grade Bei Xbit Labs, dass man bei Nvidia anscheinend eine Logik in die GPUs integriert hat, die das Umstöpseln der Signalkabel unnötig macht. :) :) Endlich mal eine sinnvolle Innovation
 
Zuletzt bearbeitet:
Edit: Ah, ich lese grade Bei Xbit Labs, dass man bei Nvidia anscheinend eine Logik in die GPUs integriert hat, die das Umstöpseln der Signalkabel unnötig macht. :) :) Endlich mal eine sinnvolle Innovation


Ist ja beim aktuellen SLI bzw. CrossFire auch so, dass eine Grafikkarte zwar rechnet, ihr Bild aber über die andere Karte an den Monitor abgegeben wird. Somit muss es ja technisch möglich sein, das entstandene Bild "umzuleiten".
 
Wer hat jetzt von wem geklaut?
Kommt mir irgendwie von AMD bekannt vor, die Technik (PowerXPress).
 
na endlich! 100 Watt weniger, wenn der Rechner Tage- und wochenlang nur Boinc cruncht.

Habe die Grafikkarte zwar derzeit auf 80 Mhz Core und 240 Ram heruntergetaktet - aber ich werde das Gefühl nicht los, dass die sich immer noch einen guten Schluck Strom aus dem Netzteil gönnt.
 
Das war schon längst überfällig
 
Tja, die Idee stammt von AMD/ATI und nun greift Nvidia sie auf - das ist ja auch gut so. Ob die Chipsatz-integrierte GPU aber merkbar zur Leistung einer Highend-GPU beitragen kann, darf man doch bezweifeln - zumal die integrierte dazu auch noch Bandbreite vom CPU-Hauptspeicher abgreift. Dieser Teil sieht für mich nach Marketing-Architektur aus. Nvidia erwähnt aber als erstes - so begreife ich den Artikel jedenfalls - auch Desktop-Systeme - das ist ein echter Fortschritt ggü. AMDs bisher vermeldeten Absichten. Ich hoffe, AMD plant derartiges auch. Bei in die CPU integrierter GPU (Fusion) hat AMD damit natürlich ein weiteres Argument für seine eigenen Grafikprozessoren, denn zwei unterschiedliche Treiber zu so engem Zusammenspiel (und damit meine ich nur die reine Seamless-Umschaltung) zu überreden, wird wohl kaum gelingen - und ist auch sicher nicht die Absicht der Hersteller. Hier ist wohl auch klar, daß integrierte und diskrete zueinander passen müssen, sie werden also vermutlich der gleichen Generation entstammen müssen und die gleiche API(/DirectX)-Version unterstützen müssen.

Für mich wäre eine solche Technik jedenfalls auch das Wegfallen des entscheidenden Hemmnisses, mir eine stärkere Grafikkarte zu kaufen: unnötig hoher Stromverbrauch, wenn keine hohe 3D-Leistung angefordert wird.

Und wo bleibt Intel? (Mal wieder) Zeit für eigene diskrete GPUs: Larrabee 8)

Noch was: integrierte Grafik kann ihr Videosignal schon heute (standardisiert) an den PEG-Slot weiterreichen (Die Bezeichnung dafür hab ich nicht parat), genau das wird bei DVI- und HDMI-Adapterkarten ohne Grafikchip für den PEG-Slot von bestimmten Boards mit integrierter Grafik gemacht. Gibt's z.B. bei Dell (IIRC). Eine umschaltfähige Grafikkarte könnte diese Bilddaten also direkt an den Grafikausgang weitergeben während die GPU selbst, wie auch der zugehörige Speicher, abgeschaltet bleibt, bis sie gebraucht wird.
 
Ein nächster Schritt wäre dann wohl, Chipsätze mit integrierter Grafik zu entwickeln, bei denen der Grafikchip nur noch die Leistung bringt, die im Desktop-Betrieb denkbar ist, das aber dafür um so energieeffizienter. Bei 3D-Spielen wird dann die Highend-Grafikkarte bzw. das SLI-System aktiviert und die integrierte Grafik könnte sich dann ja um die Physikberechnung kümmern - schliesslich behaupten nVidia bzw. ATI ja schon länger, dass das auf einer GPU genauso gut geht, wie auf einer Aegia, damit könnten sie den Beweis antreten.
 
Das ist wirklich längst überfällig. Ich verstehe nur nicht, warum man das nicht auf einer einzelnen Grafikkarte realisieren kann? Also, dass man z.B. 7/8 des Chips für Office einfach abschaltet.
 
@Kommando: Das ist durchaus eine berechtigte Frage. Leider geben die GFX-Chip-, wie auch die Kartenhersteller keine genauen Daten für die einzelnen Verbrauchsszenarien heraus (jedenfalls sind mir keine bekannt), AMD z.B. (sicher auch Intel?) gibt hingegen für jeden CPU-P-State zumindest den jeweiligen Maximalverbrauch (TDP) heraus. Somit wissen wir also nicht mal genau, über welche Verbrauchsdifferenzen hier gesprochen wird, bzw. wie hoch das Einsparpotenzial ist.

Ein Gegenbeispiel hab ich grad zu Haus getestet: das System brauchte mit Onboard-Grafik (NF 6150 - MCP51 - die ältere 2-Chip-Lösung) nur 2-3 Watt weniger (wenn überhaupt, eher Meßungenauigkeit) bei ruhender Linux-Konsole (Textmodus) als mit eingesteckter X300LE-Grafik. Die ist zwar beiweitem nicht rasend schnell, hängt aber den integrierten Chip natürlich weit ab. Leider fiel mir erst nachher ein, daß ich noch mit einer alten PCI-Graka (S3 ohne Kühlkörper) hätte testen können - naja. Werd ich demnächst hoffentlich mit einem MCP61-NF6100, derselben X300 und besagter S3 nachholen können.
Übrigens war meine GF6600 auch kaum schlechter - wohlgemerkt IDLE - als die X300. Wirklich sehr dumm, daß die aktuellen 8000er solche Stromfresser* sind - da lohnt sich sowas wie Hybrid SLI dann natürlich.

*) Immerhin hat c't halbwegs annehmbare Idle-Verbräuche von wenig mehr als 10W für einige 8500er-Karten gemessen - die sollten meine 6600 doch locker abhängen.

Noch was: Die minimalen Unterschieden in den (laut Nvidia Maximal-) Verbrauchszahlen der 8600/8500/8400 von 43/40/40 Watt zeigen doch recht deutlich, daß die Teile einfach nicht auf Sarsamkeit ausgelegt zu sein scheinen - brutal kastrierte Leistung bei den kleinen und weniger aktive Einheiten, aber so gut wie keine Verbrauchsabnahme. Sehr serh eigenartig *noahnung*
 
Zurück
Oben Unten