CeBIT 2008: NVIDIA künftig generell mit integrierter Grafik?

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Erinnern wir uns zurück an das Jahr 2001. Damals kam NVIDIA mit seinem ersten Chipsatz namens <a href="http://www.planet3dnow.de/artikel/hardware/a7n266/index.shtml">nForce 420</a> auf den Markt. Als Hersteller von Grafikchips verwunderte es damals nicht, dass dieser Chipsatz eine integrierte Grafikeinheit besaß - und das obwohl der erste nForce im hochpreisigen Segment angesiedelt war. Wer die integrierte Grafik (ein GeForce 2 MX Verschnitt) nicht nutzen wollte, konnte eine AGP-Grafikkarte nachrüsten. Erst die NVIDIA-Produkte der letzten Jahre kamen im Enthusiastenbereich ohne integrierte Grafik.

Offenbar jedoch will NVIDIA "back to the roots" wie die Kollegen von <a href="http://www.ht4u.net/news/1520_cebit_hybridsli_hybridpower_und_kommende_boards_ausschliesslich_mit_integrierter_grafik" TARGET="_blank">HT4U</a> in einem Interview erfahren haben, denn demnach sollen alle zukünftigen NVIDIA-Chipsätze wieder eine IGP bekommen. Ausschlaggebend dafür sind die Buzzwords HybridSLI und HybridPower. HybridSLI ist NVIDIAs Interpretation von <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1204972298">AMDs Hybrid-Crossfire</a>, wo eine integrierte Grafik und eine diskrete Grafikkarte die Arbeit gemeinsam übernehmen (HybridSLI) bzw. sich die Aufgaben teilen (HybridPower). NVIDIAs Plan sieht folgendermaßen aus: auch Hardcore-Gamer treiben sich gelegentlich auf dem Windows-Desktop herum. Hier würde die verbaute GeForce 9999-Haste-nicht-gesehen in jedem Fall unnötig viel Strom verbrauchen. Daher soll bzw. kann sie hier abgeschaltet werden und die stromsparende integrierte Grafik springt ein. Auch zum DVD oder HDTV sehen genügt die integrierte Grafik, sofern sie einen Hardwarebeschleuniger besitzt. Startet der Anwender sein geliebtes Quake 17, schaltet sich die "echte" Grafikkarte wieder zu. Sofern die Abschaltung der Grafikkarte in der Praxis funktioniert, eine durchaus sinnvolle Marschrichtung mit Blick auf den Stromverbrauch.

Welche Chipsätze und welche Grafikkarten genau HybridSLI/HybridPower unterstützen werden, ist noch nicht klar. In jedem Fall jedoch soll zumindest HybridPower nicht auf NVIDIA-Mainboards beschränkt bleiben, sondern auch Intel zur Verfügung stehen.
Danke neax für den Hinweis.
 
Ja stimmt schon .... die Nvidia Chipsätze fressen noch nicht genug Strom ... da kann man so nochmal gut nachhelfen *lol*
 
Ja stimmt schon .... die Nvidia Chipsätze fressen noch nicht genug Strom ... da kann man so nochmal gut nachhelfen *lol*
versteh ich nicht so ganz ... wenn bei gebrauch der igp-grafik eine normale grafikkarte vollständig abgeschaltet werden kann, dann kann man zumindest bei verwendung aktueller nvidia-grafikkarten im midrange bis highend bereich wohl davon ausgehen, dass sich dann die gesamt-energiebilanz eines systems deutlich verbessern dürfte. denn eine ausreichende integrierte grafik verbraucht unter last wohl nicht mehr als z.b. eine 8800gt idle.
 
@Nero24

Liest man in dem Artikel ein "wenig" Sarkasmus oder täuscht das? ;-)

@Topic

Jedenfalls finde ich die Idee hinter HybridSLI/Power gar nicht verkehrt. Wenn die Umsetzung gut ist, warum nicht?
 
Nur mal das ich es richtig verstanden habe. Bei AMD/ATI ist es so, maximal die doppelte Performance des IGP kann genutzt werden. Das heißt es würde keinen Sinn machen ne HD 3870X2 mit einem AMD 780G Chipsatz Mainboard zu verwenden.

Bei NVIDIA ist es aber so, ich habe die IGP mit recht wenig Leistung und könnte dann ne aktuelle 8800Ultra reinstecken die in Spielen ganz alleine die Arbeit erledigt und richtig Performance bringt, wenn ich wieder auf den Windows Desktop gehe wird die 8800Ultra abgeschaltet und ich kann Stromsparend mit der IGP weiterarbeiten.

Mit anderen Worten AMD/ATIs Lösung würde sich nur für ältere Spiele eigenen die eh kaum Leistung verlangen. Also nur sehr selten sinnvoll sein, während NVIDIAs Lösung auch bei High End Gamer sinnvoll Nutzbar ist.

Passt das so?
 
So pauschal kann man das nicht sagen. Der NVIDIA 6150/430 z.B. ist ein äußerst stromsparender Chipsatz. Das damit ausgerüstete ASRock ALiveNF6G-VSTA z.B. hat in unseren Leistungsaufnahmetests Spitzenwerte abgeliefert:
http://www.planet3dnow.de/vbulletin/showthread.php?t=333061&garpg=19#content_start
Genau !

Die Chipsätze mit int. Grafik sind in der Herstellung kaum teurer als ohne und ggf. stellt nvidia sogar heute nur mit int. GPU her.
Der Verzicht auf zeitweise überflüssige Stromverbraucher vermindert auch die Wärmeentwicklung und den Lüftungsbedarf angefangen beim Netzteillüfter.
Nachdem die GPU - Karte bei geringer Last das System der Hauptverbraucher ist, ergeben sich deutliche Vorteile durch die Abschaltung der GPU.
 
Bei NVIDIA ist es aber so, ich habe die IGP mit recht wenig Leistung und könnte dann ne aktuelle 8800Ultra reinstecken die in Spielen ganz alleine die Arbeit erledigt und richtig Performance bringt, wenn ich wieder auf den Windows Desktop gehe wird die 8800Ultra abgeschaltet und ich kann Stromsparend mit der IGP weiterarbeiten.

Mit anderen Worten AMD/ATIs Lösung würde sich nur für ältere Spiele eigenen die eh kaum Leistung verlangen. Also nur sehr selten sinnvoll sein, während NVIDIAs Lösung auch bei High End Gamer sinnvoll Nutzbar ist.

Passt das so?
Fast. Eine 8800 Ultra unterstützt das natürlich nicht. Aber sollte NVIDIA einer 9800 Ultra dieses Feature mitgeben, dürfte Deine Interpretation des ganzen den Nagel auf den Kopf treffen :)
 
Ist auf alle fälle billiger und einfacher für nvidia als seinen schluckspechten das trinken abzugewöhnen. :P

Am ende ist es ja egal wies gemacht wird, hauptsache es bringt was.
 
Dieses Hybrid-Power klingt ja klasse, aber bisher konnte mir niemand sagen, ob eine 9600GT das schon kann, bisher habe ich nur eine 9400GS gefunden, und da lohnt das ganze nicht, nicht mal mit Hybrid-SLi.
 
Dann bräuchten die Grafikkarten ja nur noch ne 3D-Beschleunigung(Voodoo läßt grüßen) wenn den Rest eh die integrierte Grafik übernimmt.
 
Und warum baut man dann nicht gleich Grafikkarten die sich bei nichtgebrauch der Leistung durch entsprechende Spiele auf das Niveau einer Onboardgrafik runtertakten?
Dann dürfte der Verbrauch ja auch nicht mehr so "exorbitant" hoch sein wie bei aktuellen Grafikkarten und im Bereich einer Onboardlösung liegen.

Oder bekommen das die Hersteller der Chips nicht gebacken oder?
Oder liegts an den Kartenhersteller.
Ich denke da an den Thread von Déspice:
http://www.planet3dnow.de/vbulletin/showthread.php?t=334540

Meine 7900GT taktet ja auch nicht runter wenn die Leistung nicht benötigt wird nachdem was mit Nbitor angezeigt hat.
Da müßte ich mit einem ModBios nachhelfen. Aber die Funktion habe ich dann doch nicht probiert :)
 
Hi,

GPU onboard ist sicherlich eine gute Idee, wenn sich die diskrete GPU bei nicht Bedarf komplett abschaltet. Das geht wahrscheinlich nicht so gut bzw. effizient, wenn man eine diskrete GPU nur teilweise abschaltet, wenn man in Ermangelung einer onboad Lösung, die diskrete GPU weiterhin benötigt.

Und ein Argument für die Chipsatz-Hersteller (vorerst) ist. Man wird, wenn man diese Funktion nutzen möchte, mit dem Kauf des Mainboads auch auf den Chipsatz der Grafikkarte festgelegt.Nvidia macht es scheinbar derzeit besser und gewinnt dadurch zwei Pluspunkte für seine Chipsätze und diskreten GPU.

Man könnte aber auch meinen, dass dies das Gegenmodell von Nvidia zu AMDs Fusion-Chip bzw. Intel-Plänen in diese Richtung sei....


Greetz
neax;)
 
die frage ist doch auch, schaltet sich dann wenigstens auch die integrierte graka ab, wenn die "echte" 3d-karte läuft bzw. bringt sie noch einen kleinen performanceschub?
denn sonst hätte man das problem, das unter 3d-last der verbrauch höher ausfällt.

dann könnte man doch auch den 2d-modus der normalen karte nochmals überarbeiten ;)
meinetwegen mit einer 2ten integrierten graka im chip....

ich kann kaum glauben, das das nun die beste möglichkeit sein soll...

wie siehts mit den anschlüssen aus? geht alles über den graka-anschluss zum monitor?

mfg
 
@foenfrisur
ich glaub auf die 1-2Watt der IGP muss man nicht so viel Rücksicht nehmen. TDP der ATI IGP beim 780er Chip war irgendetwas um die 1-2Watt.
 
Gab es eigentlich nicht mal sowas wie clock gating, wobei nicht benötigte Einheiten der GPU vom Taktsignal getrennt werden? Ich dachte ATi hatte das mit dem R480 eingeführt, wieso wurde das denn nicht weiterverfolgt. Damit wäre doch dieses Onboard-Gefuddle überflüssig um Strom zu sparen, oder wie seh ich das?!
 
Hi,

ich finde die Lösung nicht schlecht, allerdings müsste sich da die Qualität der Onboard-Graka noch ein wenig verbessern.
Ich habe ein Abit AN-M2 und einen 24" TFT und es ist nicht möglich die volle Auflösung ohne Grafikfehler wieder zu geben. Die Auflösung von 1920 hat Grafikfehler, ab 1680 und weniger gehts wunderbar. Kabel habe ich auch schon getauscht und an meinem andern PC funktionnierts mit 1920 tadellos.
Zudem müssten zwei digitale Ausgänge gleichzeitig nutzbar sein.

nVidia geht schon den richtigen Weg, allerdings müssten sie noch den idle Stromverbrauch ihrer Karten senken, denn nicht jeder wird ein nVidia Board haben wollen, vorallem bei Intel CPUs wollen sehr viele, auch ich, bei Intelchipsätzen bleiben.

Grüße Pindlkiller
 
Und wer standardisiert mir das ganze, damit ich auf meinem AMD-Board ne Nvidia-Karte im Hybridmodus laufen lassen kann?
 
Iceman512 schrieb:
Nur mal das ich es richtig verstanden habe. Bei AMD/ATI ist es so, maximal die doppelte Performance des IGP kann genutzt werden. Das heißt es würde keinen Sinn machen ne HD 3870X2 mit einem AMD 780G Chipsatz Mainboard zu verwenden.

Bei NVIDIA ist es aber so, ich habe die IGP mit recht wenig Leistung und könnte dann ne aktuelle 8800Ultra reinstecken die in Spielen ganz alleine die Arbeit erledigt und richtig Performance bringt, wenn ich wieder auf den Windows Desktop gehe wird die 8800Ultra abgeschaltet und ich kann Stromsparend mit der IGP weiterarbeiten.

Das hast Du nicht richtig verstanden. Du kannst auch bei ATIs Lösung eine X2-SchlagmeinenStromzählertotundheizdenNorpolauf Grafikkarte einbauen und nutzen. Allerdings musst Du dann - ebenso wie bei NVIDA - auf den 0,00000000002 Prozentigen Geschwindigkeitsvorteil der IGP verzichten.

Schonmal Güterzüge mit zwei Dieselloks hintereinander gesehen? Schonmal Güterzüge gesehen bei der die zweite Diesellok von einem Passat-TDI-Motor mit 90PS getrieben wurde?

Mir ist die ganze Kopplungsgeschichte wurscht. Für mich gewinnt der Hersteller der im 2D-Betrieb die Verlustleistung seiner Gamerkarte am nähesten an Null bringt (*) und das im Idealfall auch noch unter Linux ermöglicht.

(*) und hier sieht es ganz aus als ob NVIDIA das rennen macht - die GPU physisch stromlos zu schalten ist mindestens in der Theorie die beste Lösung.
 
wenn das in der praxis wirklich funktioniert dann kann man bestimmt das "normale" sli damit auch ankurbeln. der stromverbraucht ist wohl ein ziemlich starkes argument gegen 2 grakas im sli...
 
Das hast Du nicht richtig verstanden. Du kannst auch bei ATIs Lösung eine X2-SchlagmeinenStromzählertotundheizdenNorpolauf Grafikkarte einbauen und nutzen. Allerdings musst Du dann - ebenso wie bei NVIDA - auf den 0,00000000002 Prozentigen Geschwindigkeitsvorteil der IGP verzichten.

Schonmal Güterzüge mit zwei Dieselloks hintereinander gesehen? Schonmal Güterzüge gesehen bei der die zweite Diesellok von einem Passat-TDI-Motor mit 90PS getrieben wurde?

Mir ist die ganze Kopplungsgeschichte wurscht. Für mich gewinnt der Hersteller der im 2D-Betrieb die Verlustleistung seiner Gamerkarte am nähesten an Null bringt (*) und das im Idealfall auch noch unter Linux ermöglicht.

(*) und hier sieht es ganz aus als ob NVIDIA das rennen macht - die GPU physisch stromlos zu schalten ist mindestens in der Theorie die beste Lösung.

Aha also funktioniert das mit der ATI auch. Kannst du mir mal nen Link geben mit bei dem auch mal Strommessungen durchgeführt wurden wieviel Watt das System braucht. Oder auch mal getetet wurde ob sich die dedizierte Graka wirklich abschaltet wenn z.B. Windows Vista 3D Aero eingesetzt wird? Ich habe bisher nur Test gesehen bei der ne ganz kleine dedizierte Graka eingebaut wurde und dann im CrossFire Betrieb getestet wurde.
 
diese hybrid-modi funktionieren auch z.zt. noch nur mit den kleinen ded. graka´s.
hd34xx und gf 8200 soweit ich weiß.

mfg
 
Iceman512 schrieb:
Aha also funktioniert das mit der ATI auch. Kannst du mir mal nen Link geben mit bei dem auch mal Strommessungen durchgeführt wurden wieviel Watt das System braucht.

Es gibt nicht "das System" und daher auch nicht "die Leistungsaufnahme". Bekannt ist das die IGP des 780G ca. 2 W braucht. Rechne die 2 Watt zu den 90 Watt einer Radeon2600 oder den 240W einer Radeon2900 und Du hast den Gesamtverbrauch.

Oder auch mal getetet wurde ob sich die dedizierte Graka wirklich abschaltet wenn z.B. Windows Vista 3D Aero eingesetzt wird?

Zur Erinnerung nochmal Deine Frage auf die ich geantwortet habe:

Nur mal das ich es richtig verstanden habe. Bei AMD/ATI ist es so, maximal die doppelte Performance des IGP kann genutzt werden. Das heißt es würde keinen Sinn machen ne HD 3870X2 mit einem AMD 780G Chipsatz Mainboard zu verwenden.

Warum behauptest Du meine Antwort darauf, dass die Leistung im 780G-System eben nicht auf die doppelte Performance des 780G limitiert ist, zu hinterfragen um dann aber in Wirklichkeit eine neue Frage zu stellen? Möchtest Du mit Gewalt die Vorteile der Lösung von NVIDIA besprechen? Hab ich keine Probleme mit, aber dann bitte offen und nicht so hinterfurzig mit Schein-Fragen. Oder wirfst Du hier nur aus Unachtsamkeit verschiedene Fragen in einen Topf? Sowas ist niemals eine gute Idee.

Zur Sache: AMD versucht mit PowerPlay die Leistungsaufnahme der eingeschalteten GPU zu reduzieren sobald diese nicht auf Vollast läuft. Wie weit das funktioniert weiß ich nicht weil ich bisher noch keine merkenswerten Tests darüber gelesen habe. Die ursprünglich angekündigte Abschaltung der Grafikkarte (http://www.vr-zone.com/articles/AMD_Touts_Hybrid_Crossfire_Performance/5363.html) wurde bisher meines Wissens nicht realisiert.

Und nun die Gegenprobe: Wie stehts denn um den Energieverbrauch der von NVIDIA verkauften Grafikkarten wenn diese mittels Hybrid SLI im 2D Betrieb abgeschaltet werden? Ach moment, NVIDIA verkauft im Moment ja Karten die weder das eine noch das andere können. Ups.


Ich habe bisher nur Test gesehen bei der ne ganz kleine dedizierte Graka eingebaut wurde und dann im CrossFire Betrieb getestet wurde.

Ja, das ist richtig. Ebensowenig sinnvoll wie eine 900PS Dieselllokomotive mit einer mit 60PS zu koppeln ist es, eine überproportional leistungsstarke GamerGPU mit einer IGP zu koppeln. Die Kopplungsverluste fressen den Gewinn auf und schlimmstenfalls sinkt die Gesamtleistung.

Das ändert aber nichts daran dass Du die GamerKarte ohne Leistungsverlust und ohne dass ihre Performance reduziert wird im 780G-System nutzen kannst.

Und wenn Du jetzt sagst das wäre bei NVIDIA aber ganz anders dann hätte ich gerne entsprechende Tests. Ich bin bei SLI extrem uninformiert, aber war es nicht zumindest lange Zeit so dass dort sogar nur gleiche GPUs überhaupt zusammengeschaltet werden konnten?
 
Zuletzt bearbeitet:
@Markus Everson
ich glaube du hast meine Fragen komplett durcheinander gebracht. Ich wollte ganz bestimmt AMD/ATI nicht schlecht machen.

Bisher habe ich nur Benchmark mit Hybrid Crossfire gesehen die eben eine kleine 34xx mit der IGP koppeln und dann mehr Performance bringt. Am besten lies noch mal mein erstes Post durch. Nero24 hat das auch so bestätigt. Deswegen ging ich dann auch davon aus das es mit der AMD Lösung nicht Möglich ist eine z.B. 3870 mit rein zu stecken darüber Spiele zu zocken und danach mit der IGP in Windows weiterzuarbeiten. bzw. nur mit extremen Performance Verlusten Möglich ist daher das AMD System ausschließlich Crossfire mit der IGP unterstütz und wer das nicht möchte weil er mehr 3D Power benötigt hat Pech gehabt.

Dann kommst du und sagst nein verhält sich anders, genau das was ich zu NVIDIA geschrieben habe Funktioniert auch mit ATI, das heißt ich baue ne 3870X2 oder sonst was rein, Spiel nur über diese, wechsle wieder zurück auf Windows und benutze dann die IGP.

Ich habe daraufhin nichts weiter gefragt als obs dazu schon Tests mit dieser Lösung gibt. Wie du es geschafft hast eine liebe zu NVIDIA da hinein zu Interpretieren ist mir ein absolutes Rätsel.


Es gibt nicht "das System" und daher auch nicht "die Leistungsaufnahme". Bekannt ist das die IGP des 780G ca. 2 W braucht. Rechne die 2 Watt zu den 90 Watt einer Radeon2600 oder den 240W einer Radeon2900 und Du hast den Gesamtverbrauch.
Ich dachte eigentlich es wäre vollkommen klar das damit nur gemeint sein kann wie viel Watt braucht das System (was für eines ist doch vollkommen egal es sollte nur einmal mit Hybrid Crossfire laufen und einmal nur mit dedizierter Graka) mittels Hybrid Crossfire im ruhenden Windows Desktop und wie viel Watt bräuchte das System wenn nur die dedizierte Grafikkarte zum Einsatz kommt. Aus der Differenz sieht man dann wie viel Strom gespart werden würde. Das unter Vollast wenn die dedizierte Graka genauso Arbeiten müsste wie ohne Hybrid Crossfire kein geringerer Stromverbraucht erzeugt wird sollte eigentlich klar sein.


Ok dieser Satz von mir
„Oder auch mal getetet wurde ob sich die dedizierte Graka wirklich abschaltet wenn z.B. Windows Vista 3D Aero eingesetzt wird?“
war etwas falsch, richtig müsste es heißen ob die dedizierte Graka auch bei Vista Aero weniger Strom mit Hybrid Crossfire Verbraucht im Vergleich zu nur die dedizierte Graka ohne Hybrid Crossfire.

Vielleicht sind die Treiber momentan so schlecht und erkennen nur 2D Betrieb IGP, 3D betrieb dedizierte Graka und nicht 3D betrieb wenig Last IGP, 3D Betrieb viel Last dedizierte Graka. Von daher würde ich einen solchen Test begrüßen. Selbstverständlich auf für NVIDA sollten die es endlich mal rausbringen.

So ist jetzt alles klar oder denkst du immer noch ich möchte AMD/ATI schlecht machen und habe keinen anderen Grund hier zu posten?
Ich will nämlich auch nur wissen was wäre das bessere System und kann ich jetzt schon mit den heute verfügbaren Treibern eine 3870 mit dem 780G sinnvoll Nutzen?
.
EDIT :
.

Habe mir mal diesen Text durchgelesen, http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1204652114 hier wird mit keinem Wort erwähnt das bei AMD die Möglichkeit besteht bei Spielen nur die dedizierte Graka zu Benutzen und bei nur Windows Desktop die IGP. Es wird sogar von Gelgenheits-Spielern gesprochen was doch auch mit Vermuten läßt das es so eine Möglichekit wie ich suche momentan noch nicht gibt.

Es geht mir darum, ein Bekannter von mir möchte sich einen neuen PC kaufen. Ab und zu Spiel er auch, möchte dann auch recht hohe Auflösungen und viele Details haben. Daher er aber bestenfalls 5-10% am PC Spielt wäre eine starke Graka nur unnötiger Stromverbrauch, andererseits für hohe Auflösungen braucht er eine starke Graka.

Deswegen eine Frage hat irgendeiner schon selbst gesehen, oder selbst getestet oder etwas Ofizielles von ATI/AMD gehört wo Definitev gesagt wird das eine starke Gamer Grafikarte eingebaut werden kann, ich damit Spiele zocken kann und wenn ich fertig bin gehts mit der IGP weiter in Vista und einen geringeren Stromverbrauch?

ich habe jetzt nochmal gesucht, gerade nachdem Markus Everson zumindest so wie ichs verstanden habe schrieb das genau diese Funktionalität auch gehen soll. Aber habe mit googel nichts gefunden. Kann mir da einer weiter helfen?
 
Zurück
Oben Unten