NVIDIA stellt Hybrid SLI vor

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
In den letzten Wochen war auf Planet 3DNow! viel zum Thema Hybrid Crossfire zu lesen. Eine Onboard-Grafik und eine normale PCI-Express Grafikkarte teilen sich hier die Arbeit. Zielgruppe: Anwender, die generell auf ein günstiges, stromsparendes System Wert legen, auf ein gelegentliches Spielchen aber nicht verzichten möchten, ohne dabei ständig eine stromdurstige Gamer-Grafikkarte "durchfüttern" zu müssen.

Doch AMD ist mit Hybrid-Crossfire nicht alleine. Auch NVIDIA hat heute mit Hybrid SLI eine Lösung mit vergleichbarem Ansatz vorgestellt. Hier ein Auszug aus der Pressemeldung:<ul><i>NVIDIA integriert die neue Hybrid-SLI-Technologie im Laufe des Jahres in seine Grafiklösungen für AMD- und Intel-basierende Desktops und Notebooks, darunter die in Kürze erhältlichen AMD-Medienprozessoren nForce 780a, 750a und 730a und die Ende Januar verfügbare GPU GeForce 8200 - die branchenweit erste Micro-ATX-Motherboardlösung mit integrierter DirectX-10-fähiger mGPU. Hybrid-SLI-Lösungen für Notebooks und Intel-PCs gibt es voraussichtlich ab dem nächsten Quartal.</i></ul><b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3462160#post3462160">Pressemitteilung</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199111206">AMD RS780 Chipsatz: Steigbügelhalter aus den roten Zahlen?</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197630942">AMD Hybrid Crossfire im Vorabtest</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197374774">Neues zu AMDs kommenden IGP-Chipsätzen</A></li></ul>
 
Die ganzen Hybridlösungen sind doch eigentlich nur ein Werbegag. Die Leistung von Onboardchipsätzen ist für Games absolut nicht zu gebrauchen. Die 2-3 Frames, die man dann bei aktuellen Games durch die Nutzung des Onboardchipsatzes gewinnt... am Ende gleicht sich das durch den verlorengegangenen Hauptspeicher wieder aus.

Macht eigentlich nur Sinn, wenn man die Zusatzgrafikkarte im 2D-Modus abschalten kann.
 
ist ja eine Low-Cost Lösung... die externe GraKa soll ja auch keine 3870 sein, sondern ein $50 GraKa aus dem Low End Bereich...
 
Zuletzt bearbeitet:
Die ganzen Hybridlösungen sind doch eigentlich nur ein Werbegag. Die Leistung von Onboardchipsätzen ist für Games absolut nicht zu gebrauchen. Die 2-3 Frames, die man dann bei aktuellen Games durch die Nutzung des Onboardchipsatzes gewinnt... am Ende gleicht sich das durch den verlorengegangenen Hauptspeicher wieder aus.

Macht eigentlich nur Sinn, wenn man die Zusatzgrafikkarte im 2D-Modus abschalten kann.
Genau das soll nvidias-Lösung auch können. Das wäre zumindest für mich eine sehr interessante Technologie. Habe erst heute mal wieder eine Aufrüstung durchgerechnet und dann mal überschlagen, was ich da wohl mehr an Watt verbrauche. Allein die Graka würde schon min. +50 Watt bringen. Von daher wäre das genau mein Ding.
 
Richtig brauchbar wäre es für den Otto-Normal-Zocker von heute nur, wenn der Onboard Grafikchip im Windowsbetrieb aktiv ist und sich die "Zusatz"-Grafikkarte (8800GT/3870 z.b.) erst im 3D Modus dazuschaltet. So kann man Stromsparen und hat trotzdem Highendkomponenten welche nur Strom fressen, wenn sie auch gebraucht werden.

Aber vielleicht verkauft sich das ja ganz gut *noahnung*

EDIT: Zu lahm :(
 
vielleicht kommen ja die "reinen" 3d-beschleunigerkarten wieder ;)
wie die (ur)alten voodoo-karten oder matrox...

mfg
 
Hi,

ich finde das schon einen Schritt in die richtige Richtung. Am besten fände ich es, so wie meine Vorredner auch schon geschrieben haben, dass es wieder reine 3D Beschleunigerkarten geben würde, bzw. Karten, die sowohl 2D und 3D können, aber sobald sie in einem Board mit onboard Graka stecken, dann als reine 3D Beschleuniger fungieren und die onboard Graka bloß mehr das Signal ausgibt.
So wie ich die jetzige Technik verstehe, soll die externe Graka die onboard Graka nur unterstützen und das ist wirklich nur für den Low End Markt zu gebrauchen. Wenn es wirklich Sinn machen soll, dann muss die externe Graka die komplette Berechnung alleine übernehmen.

Allerdings müsste dann die Bildqualität von den onboard Chipsätzen noch steigen und die Anzahl von Anschlüssen, zumindest zwei digitale Ausgänge wären Pflicht!

Grüße
 
Onboard Grafik nur mit 2D wäre sogar sehr einfach und billig in jedern Chipsatz zu stopfen. Wer mehr Monitoranschlüsse benötigt könnte dann ja zu einer PCIe1x Zusatzkarte greifen. Oder man baut einen neuen DVI Anschluß der Quad-Link bietet. Dann reicht ja nen Y-Kabel.

Aber das wird nicht kommen da Vista ja nicht seine Fenster rumwerfen könnte, oder aber die 3D würde wieder immer mitlaufen.
 
Najo, man könnte aber auch alternativ einfach Chipsätze bauen, die im 2D-Betrieb stromsparend arbeiten. ATI hat da mit seinem HD3800 neue Maßstäbe gesetzt.
 
Zuletzt bearbeitet:
Pindlkiller schrieb:
Am besten fände ich es, so wie meine Vorredner auch schon geschrieben haben, dass es wieder reine 3D Beschleunigerkarten geben würde, bzw. Karten, die sowohl 2D und 3D können, aber sobald sie in einem Board mit onboard Graka stecken, dann als reine 3D Beschleuniger fungieren und die onboard Graka bloß mehr das Signal ausgibt.

Und nun musst Du nur noch erklären warum ausgerechnet das in Deinen Augen die beste Lösung ist.
 
So schlecht fände ich das jetzt auch nicht, wenn man alles an 2D und pillefax 3D (wie z.B. Google Earth) über den Onboardgrafikchipsatz laufen lassen könnte und forderndes 3D dann über die stromfressende Grafikkarte geht.
Sicherlich auch aus der "Silent-Sicht" gut, da man so zumindestens im Desktopbetrieb einfacher Passiv kühlen kann.
Wenns kommt, hoffe ich nur, dass das auch unter Linux ordentlich läuft. *suspect*
 
Wäre das dann wirklich SLI? Ich glaub's nicht.
Ich glaube vielmehr, dass die große GK sich weitgehend abschaltet und die Onboard-GK ihr Videosignal per PCIe auf die große GK schickt die das dann nach außen (VGA/DVI/HDMI) weitergibt.
 
Und nun musst Du nur noch erklären warum ausgerechnet das in Deinen Augen die beste Lösung ist.

Hi,

na das ist doch ganz einfach. Ich möchte einen stromsparenden PC haben, wie auch sehr viele andere User. Die neuen AMD/ATI Grakas sind bestimmt net schlecht und im Idle auch schon sparsamer geworden, aber ein onboard Chip ist halt noch um so vieles sparsamer. Wenn man nun doch ein Spiel spielen möchte, dass eine hohe 3D Leistung braucht, schaltet sich der Beschleuniger zu und man kann das Spiel genießen. Wem das noch nicht ausreicht, könnte man wieder so weit gehn, wie bei den alten 3DFX Karten, wo auch noch eine zweite Beschleunigerkarte benutzen kann.
Vorraussetzung wäre natürlich, dass sich die Beschleunigerkarten auch wirklich abschalten lassen, bzw. nur soviel Strom brauchen, damit das System weiß, dass sie noch da sind und das wären nur sehr wenige Watts.
 
Ziemlich viel heiße Luft von nvidia.
Wenn ich eine 8400er Karte dazu stecke, habe ich, aller Voraussicht nach, in etwa die 3D Leistung einer halbierten 8400er, Also halbierte Leistung bei jetzt 2 Stromverbrauchern.*lol*
Linux und XP werden übrigens nicht unterstützt.
 
Ziemlich viel heiße Luft von nvidia.
Das nennt man normales Marketing.

Klar, dass bei der Einführung nicht alles & perfekt funktioniert.
Aber am wichtigsten ist die Einführung, denn später wird es sowieso weiter & weiter entwickelt .

Es ist ja auch nicht sicher, dass Hybrid-Cf gleich am Anfang alles kann. Nicht umsonst ist der Zeitliche Abstand zwischen Desktop-RS780 & Mobil-RS780 ganze 4 Monate. Denn bei Notebook-Plattformen ist es noch wichtiger, dass alles stabil funktioniert.
 
Pindlkiller schrieb:
Hi,

na das ist doch ganz einfach. Ich möchte einen stromsparenden PC haben, wie auch sehr viele andere User. Die neuen AMD/ATI Grakas sind bestimmt net schlecht und im Idle auch schon sparsamer geworden, aber ein onboard Chip ist halt noch um so vieles sparsamer. Wenn man nun doch ein Spiel spielen möchte, dass eine hohe 3D Leistung braucht, schaltet sich der Beschleuniger zu und man kann das Spiel genießen.

Soweit völlig korrekt. Aber wie kommst Du darauf dass der Idle-Stromverbrauch des 3D-Teils einer "vollwertigen" Grafikkarte im 2D-Betrieb höher ist als der Idle-Stromverbrauch einer 3D-Beschleunigerkarte ala Vodoo?

Ich denke es ist so dass der 3D-Teil gleichwertig sein kann und dabei gleichwertigen Verbrauch @Idle hat. Dass der bisher nicht wirklich gering ist ist bedauernswert und man kann darüber streiten ob das prinzipbedingt gar nicht anders geht (*), aber das nun der reine 3D-Beschleuniger soviel besser ideln kann nur weil er auf einer separaten Steckkarte (mit eigenem RAM, eigener Beschaltung....) sitzt?

Bleibt noch der zweite Weg, den ATI dem verlaut nach nehmen will. Die "vollwertige" Karte bleibt vollwertig, die Onboard-Grafik bleibt sparlösung aber mit vollwertigem "Spar-3D-Teil". Auf der Linux-Konsole mag das minimal mehr Leistung ziehen als wenn sie gar keinen 3D-Teil hat. Aber schon bei einem 3D-Desktop kann diese Lösung energiemäßig punkten.

Am Horizont dann die alles toppende Lösung. Wieder eine Onboard-Grafik mit 3D-Teil, wieder mit erfreulich geringem Durst in 2D und auf dem 3D-Desktop. Und dazu eine Leistungsstarke zweite Karte die aber mittels Chipsatzunterstützung von einem Treiber *abgeschaltet* ist und erst *eingeschaltet* wird wenn sie wirklich gebraucht wird. Idle-Verbrauch: 0-3 Watt, Verbrauch unter beim zocken: ...hey, wayne intressierts?

Vorraussetzung wäre natürlich, dass sich die Beschleunigerkarten auch wirklich abschalten lassen, bzw. nur soviel Strom brauchen, damit das System weiß, dass sie noch da sind und das wären nur sehr wenige Watts.

Den Teil habe ich jetzt zu spät gelesen. Du meinst das selbe wie ich. :-)
 
Zurück
Oben Unten