News Onboard-Grafik bis 2012 von der Bildfläche verschwunden?

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Der Markt für Mainboards mit Onboard-Grafik - genauer: mit im Chipsatz integrierter Grafik (IGP) - war in den letzten Jahren ein stetig wachsender. Anfangs waren IGP-Lösungen in der Tat nur für <a href="http://www.planet3dnow.de/artikel/hardware/am75ec/index.shtml">äußerst unspektakuläre Aufgaben geeignet</a>, wie etwa für reine Office-PCs. In den letzten Jahren jedoch haben sich die IGP-Lösungen derart weiterentwickelt, dass praktisch jeder Anwender, der nicht zu den Konsumenten von 3D-Spielen neuester Bauart zählt, damit auskommen kann. Chipsätze wie der AMD 780G bieten dabei nicht nur Hardware-Beschleunigung für DVD- und HDTV-Inhalte, sondern auch immerhin 40 Shaderprozessoren, das größere Modell AMD 790GX zusätzlich noch bis zu 128 MB sogenanntes Sideport-Memory, also echtes eigenes VRAM ohne dem System per UMA Speicherbandbreite abzwacken zu müssen.

Trotz des rasanten Wachstums in den letzten Jahren in praktisch allen Segmenten der IT-Branche, sagen Marktforschungsinstitute das Ende der IGPs voraus - und das schon 2012. Grund dafür stellen die kommenden Prozessor-Entwicklungen von Intel, AMD, VIA und <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1236247408">möglicherweise sogar NVIDIA</a> dar. Bekanntlich sollen die Prozessoren der genannten Hersteller künftig integrierte GPUs erhalten. Der Grafikkern wandert damit von der Northbridge des Chipsatzes auf dem Mainboard direkt in die CPU. Diesen Evolutionsschritt kennt man aus der Vergangenheit bereits von einigen Komponenten: Ende der 1980er Jahre machte der Level 1 Cache als erste Komponenten diesen Schritt. Der Intel 80386 musste noch völlig ohne On-Die Cache auskommen, während der Nachfolger Intel 80486 bereits On-Die L1-Cache besaß. Es folgte der mathematische Co-Prozessor, der bis dato optional - meist bei Workstations - als separater Chip auf dem Mainboard saß. Als nächstes wanderte 1998 beim Intel Celeron "Mendocino" und etwas später beim AMD K6-III "Sharptooth" der Level 2 Cache vom Mainboard in das Die. 2003 folgte beim AMD Opteron gleich der ganze Memory-Controller und 2007 beim AMD Phenom sogar ein Level 3 Cache. Anmerkung: die Angaben gelten für den x86-Desktop-Bereich. In anderen Segmenten (vorzugsweise bei Servern und im RISC-Bereich) fanden die genannten Schritte teilweise erheblich früher statt.

In den nächsten Jahren nun wird die GPU folgen und damit werden Chipsätze mit integrierter Grafik überflüssig. Damit wird es künftig nur noch Systeme geben, die eine GPU im Prozessor tragen und - meist für Spieler oder andere Anwendungsgebiete, die maximale Grafikleistung benötigen - die dedizierte Grafikkarte; oder die "diskrete" Grafik, wie es die denglische Welt möchte.

Bei AMD wird die erste CPU mit integrierter Grafik bekanntlich der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1221724936">AMD Fusion</a> sein. Dabei wird die integrierte GPU natürlich nicht nur als Co-Prozessor für GPGPU-Computing dienen, sondern - möglicherweise je nach Variante - auch als Grafiklösung. Die Vorteile liegen auf der Hand: erheblich billigere Chipsätze, kürzere Wege zum VRAM, nachdem auch der Memory-Controller mittlerweile (auch bei Intel) in der CPU sitzt und im Falle von GPGPU-Computing kein Flaschenhals mehr wegen irgendwelcher Bussysteme.

Früher waren Chipsätze noch die tragende Säule eines Computersystems. Nicht nur die Integration der Features hing davon ab, sondern auch ganz wesentlich die Leistung der Plattform. Nachdem in den letzten Jahren immer mehr Komponenten direkt in die CPU gewandert sind und noch wandern werden, rückt der Chipsatz an sich immer mehr in den Hintergrund. Auch die Integrationsdichte der Southbridge spielt mittlerweile nicht mehr die ganz große Rolle, nachdem dank PCI-Express inzwischen auch anspruchsvolle Komponenten wie etwa Gigabit-Ethernet-Controller wieder problemlos auf dem Mainboard verbaut und per PCIe angebunden werden können, was den Mainboard-Herstellern mehr Spielraum lässt bei der Ausstattung der Boards. Bei genauerer Betrachtung könnte man sagen, dass die Chipsätze bereits 2001-2003 mit dem NVIDIA nForce420 bzw. nForce 2 ihren Höhepunkt in Sachen Integrationsdichte erreicht hatten. Damals steckte neben einem Dual-Channel Speicher Interface und einer IGP auch noch USB 2.0, IDE, FireWire, eine Netzwerk-MAC, Dolby Digital Audio und ein HyperTransport-Link für die Verbindung Northbridge-Southbridge im Chipsatz. Nur die Southbridge mit integrierten SATA-Controllern MCP-S hat es aus welchen Gründen auch immer nie in Serie geschafft. Seit damals ist die Integrationsdichte des Chipsatzes wieder abnehmend: nur noch SATA und USB stecken in der Southbridge, Grafik ggf. in der Northbridge. Sound, LAN, FireWire und Memory-Controller sind wieder extern angebunden - und demnächst werden noch GPU und der PCI-Express Controller folgen, die beide in den Prozessor befördert werden.

Das System des Jahres 2012 wird demnach völlig anders aussehen, als ein aktuelles 2009er System; was kaum zu glauben ist, wenn man betrachtet wie wenig sich ein 2006er von einem 2009er System unterscheidet.

<b>Links zum Thema:</b><ul><li><a href="http://www.digitimes.com/print/a20090305PR209.html" target="_blank">Integrated graphics chip market to disappear by 2012</a></li><li><a href="http://www.planet3dnow.de/artikel/diverses/nf2config/2.shtml#kauf_unterschiede">Welche Unterschiede gibt es bei den nForce2 Mainboards? </a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1219160743">Mainboards mit AMD 790GX verfügbar</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1204620318">AMD 780G offiziell vorgestellt</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1221724936">AMD erklärt den neuen Fusion Prozessor</a></li></ul>
 
ich denke das ist eine sehr lobenswerte Entwicklung. Vor allem wenn Software befähigt würde den GPU part on DIE zu nutzen. BOINC tut das ja schon teilweise. Wenn die die DIE-GPU dann auch noch in Kombination mit einer regulären Graka arbeiten könnte (eine Art SLI dann), dann würden sogar die Gamer profitieren. Wichtig wäre die Graka-anbindung an der CPU zu haben. Dann kann man die Northbridge endlich mal loswereden.

Das spart nicht nur Geld bei der Chipsatzherstellung, das macht auch die Kühlung einfacher da ich nur noch einen Kühler brauche.

Bedenklich finde ich die entwicklung weniger auf der soutbridge zu haben. Was soll denn gut sein wenn man da alles wieder Einzelkomponenten hat für network etc? vorausgesetzt die SB ist gut designed sollte das ja für die Masse aureichen. Für den Stromverbrauch sind weniger Komponenten sicher hilfreich, spart Platz...
 
Also darf jeder CPU-Käufer den GPU-Part in der CPU mitbezahlen egal ober das braucht oder nicht.
Das muss doch nicht sein.
 
Also darf jeder CPU-Käufer den GPU-Part in der CPU mitbezahlen egal ober das braucht oder nicht.
Das muss doch nicht sein.
Naja, so ähnlich dürfte das bei den Anwendern von 1986 auch geklungen haben. "Integrierter Co-Prozessor? Brauch ich nicht!" :P Heute ist er Standard und nicht mehr wegzudenken aus einem System. Wenn Du die den integrierten Grafikkern nicht für Grafik-Ausgabe brauchst, dann ja vielleicht dafür
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1229127131
oder dafür
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1228748987
oder dafür
http://www.planet3dnow.de/vbulletin/showthread.php?t=358047
oder...
 
Die Cpu sind teuer genug, verfuttern Strom genug und wenn es ein Designproblem beim Grafikkern gibt, hat man dem am Hals solange man die Cpu hat.
Ein Board ist häufig genug günstiger.
Würde mich auch nicht wundern, wenn es dann wieder eine erneute Sockelflut geben wird.
Treiber und Software, hm wieviel haben Amd und Nvidia schon hoch und heilig versprochen was Video Decoder usw doch unterstützt werden würde, und jede menge heiße Abluft ist als einziges davon übrig geblieben.
Das wird sich dann ändern?
 
Also darf jeder CPU-Käufer den GPU-Part in der CPU mitbezahlen egal ober das braucht oder nicht.
Das muss doch nicht sein.

Na man hofft ja, dass die Hersteller es mal schaffen die on-DIE GPU in Zusammenhang mit der dezidierten Graka zu nutzen und/oder die on-DIE GPU für Berechnungen zu nutzen. Ist ja eine Schande, dass manche Leute Grakas für den doppelten Preis der CPU haben und die ausser bei Spielen nur dumm rumsitzt und Stom verbraucht. Wo die GPU bei Parallel Anwendung ja 100 mal schneller ist als die CPU. schändlich...

Kosten wird die GPU nicht viel wenn das gut integriert ist. Vielleicht sogar billiger, weil das die Lagerhaltung verringert. Jetzt muss man x verschiedene SBs, Y NBs und Z CPUs lagern. Dann nur noch X und Z.

ich hab 3 MB cache... vielleicht nutz ich nur 2 MB? Dann hab ich auch ein MB zuviel bezahlt. Aber das ist billiger als den Hersteller 2 MB und 3 MB CPUs zu bauen. Ich hab auch für SSE4 bezahlt, brauch ich das? Und wie gesagt, die 10 $ mehr spart man sicher bei der NB die nicht mehr gebraucht wird.
 
Da wird wieder alles bunt durcheinander gemischt. Es wird auch nach 2012 noch OnBoard GPUs geben, denn die GPUs in den SoCs werden nur lowest End sein und zudem lange Releasezyklen haben.
 
Also darf jeder CPU-Käufer den GPU-Part in der CPU mitbezahlen egal ober das braucht oder nicht.
Das muss doch nicht sein.
Der Kostenanteil ist aber gering, wie ja auch die aktuellen Preise für Boards mit IGP zeigen.

Wahrscheinlich wird die Performance der onboard-Grafik deutlich weiter steigen und wir $5-10 mehr als als heute zahlen müssen.
Vielleicht wird auch onboard-Grafik je nach CPU-Leistung auch noch anteilig teurer.

Hauptvorteil für die Designs wird wohl der gemeinsame Kühlkörper darstellen.
Die GPU wird anteilig mehr Kühlleistung benötigen, dafür sind tendenziell eher die schächeren und sparsameren CPU-Designs vorhanden (wie bei Intel nur Dual-Core Nehalem).

Chancen für AMD gibt es im Vergleich zu Intel per Hybdrid-Crossfire.
Da kann mit wenige Kostenaufwand und Kühlbedarf noch 100-150% mehr GPU-Leistung zur Verfügung gestellt werden.
Das könnte 2012 deutlich mehr User als heute reichen.
 
Ich würde mich freuen, wenn dann viele Dinge wie z.B. Physik von den DIE GPU berechnet werden könnten.
Was mich aber mal wieder etwas nachdenklich stimm ist, dass wenn man einen Fehler hat, man die ganze CPUGPU in die Tonne treten kann, wenn wirklich alles auf einer DIE ist.
So eine Art Cell auf 86 Basis wäre aber durchaus was interessantes.
 
Hi,

eine High-End Gamer GPU wird sicher nicht so schnell in die CPU wandern - schon aufgrund der Verlustleistung und Chipfläche. Es sei denn, irgendwann bei totaler Marktsättigung reicht die Rendering Power eines Standardkartenmodells für alle Ansprüche einfach aus. Daher wird es auch weiterhin diskrete Grafikkarten geben und korrespondierend hoffentlich auch CPUs ohne nutzlose GPUs.

Und auch im Officebereich erschliesst sich mir der Vorteil nicht. Noch mehr CPU PINs für ein lokales VRAM... ?
 
Wird es denn in alle CPU kommen? Das sollte doch die Frage sein. Und da gehe ich mal von einem "Nö" aus. Es wird wohl in Richtung Office CPU gehen. Mit vielleicht sogar eigenem Sockel. Oder nicht mal das, vielleicht werden diese CPU-GPU Clone nur für Billig Plattformen genutzt, wie die mini Schleppis Eee Pc usw. Für TV Geräte mit Internet.

Man muss doch nur mal sehen was AMD so baut. Bei AMD gibt es hauptsächlich Server CPU, die später mit anderem Namen und deaktivierten Funktionen als Desktop CPU auf den Markt kommen. Also was soll eine IGP in einem Opteron?

Abwarten Tee trinken.
 
Zuletzt bearbeitet:
Naja, so ähnlich dürfte das bei den Anwendern von 1986 auch geklungen haben. "Integrierter Co-Prozessor? Brauch ich nicht!" :P Heute ist er Standard und nicht mehr wegzudenken aus einem System. Wenn Du die den integrierten Grafikkern nicht für Grafik-Ausgabe brauchst, dann ja vielleicht dafür
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1229127131
oder dafür
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1228748987
oder dafür
http://www.planet3dnow.de/vbulletin/showthread.php?t=358047
oder...

Naja, der Vergleich hinkt ein wenig. 1986 konnte man es sich noch aussuchen.
Außerdem ist die fpu auch nur eine weitere Recheneinheit. Grafik ist nicht Bestandteil einer klassischen CPU. Wenns darum geht ein Motherboard zu ersetzen genügt auch ein System on a Chip.
 
Klingt sehr interessant.

[Ironie]
Den einzigsten Haken den ich sehe wäre der, daß es wahrscheinlich erst 2020 Programme geben wird die diese Funktion auch nutzen können *suspect*[/ironie]
 
[...]

Bei genauerer Betrachtung könnte man sagen, dass die Chipsätze bereits 2001-2003 mit dem NVIDIA nForce420 bzw. nForce 2 ihren Höhepunkt in Sachen Integrationsdichte erreicht hatten. Damals steckte neben einem Dual-Channel Speicher Interface und einer IGP auch noch USB 2.0, IDE, FireWire, eine Netzwerk-MAC, Dolby Digital Audio und ein HyperTransport-Link für die Verbindung Northbridge-Southbridge im Chipsatz. Nur die Southbridge mit integrierten SATA-Controllern MCP-S hat es aus welchen Gründen auch immer nie in Serie geschafft.[...]

Es gab eigentlich eine NV Southbrigde für den nForce2 Ultra 400, die sog. Gigabit MCP, die in der Tat SATA und Gigabit Ethernet implementierte. Wurde beispielsweise auf dem MSI K7N2 Delta2 Platinum verbaut. Leider hatte diese SB aber kein Soundstorm mehr sondern nur noch AC97 kompatible Unterstützung.

Was waren das noch Zeiten....
Erst wandert alles von Karten in den Chipsatz (wer kennt noch Chipsätze ohne IDE Support?) und dann wandert alles zur CPU.

In ferner Zukunft wird vielleicht ein Chip alles erledigen. Inkl. Kaffee kochen :P
 
Leider waren diese Platinen nach meiner Info, schlecht zum ocen aus welchem Grund auch immer. Und wurden daher gemieden. Ob es so eine Platine in den OEM-Markt geschafft hat weiß ich nicht, die Platinen kamen ja recht spät auf dem Markt. Auch andere Hersteller haben hier nachgezogen, glaub von Abit gab es das auch mit nativem SATA.
 
ne meldung, die nvidia kopfschmerzen machen dürfte. und, dass die mit x86cpus auf einmal dastehen, kann ich nicht wirklich glauben.
 
okay, oboard grafik war ja ehedem mal der letzte schrott.
auf der anderen seite: viele ältere spiele lassen sich selbst damit heute super spielen. also frage ich mich, wie stark denn wohl die zukünftigen grafikeinheiten auf der cpu sein werden? doch sicher erheblich stärker als die bisherigen onboard lösungen (höherer core-takt; schnellere ram-anbindung). und bis 2012 ist ja nun wirklich auch noch zeit...
 
Da wird wieder alles bunt durcheinander gemischt. Es wird auch nach 2012 noch OnBoard GPUs geben, .....

Dann wäre aber die Überschrift falsch gewählt ;D
Fiel mir gerade mal so auf ^^

@Treverer
Wenn die CPU/GPU so leistungsstark werden sollten das sie an die leistung einer diskreten Graka ranreichen könnten, wohin dann mit der Abwärme ?
Ich freue mich dann schon auf die Kühllosungen ^^
 
Zuletzt bearbeitet:
@Treverer
Wenn die CPU/GPU so leistungsstark werden sollten das sie an die leistung einer diskreten Graka ranreichen könnten, wohin dann mit der Abwärme ?
Ich freue mich dann schon auf die Kühllosungen ^^

na, daß eine extra grafikkarte mehr leistung bringt, ist doch unstrittig. aber trotzdem erwarte ich einen leistungsschub: die strukturen werden ja auch kleiner (wo steht man bei grafikkarten 85nm *noahnung*) und ich denke, daß die energiesparoptimierungen bei den cpus auch deutlich weiter sind, oder?

edit:
oh, amd baut die gpus doch schon in 55nm (nvidia: 65nm)...na ja, trotzdem, ins 2012 sind es ja schon locker 32nm für die cpus
 
Zuletzt bearbeitet:
na, daß eine extra grafikkarte mehr leistung bringt, ist doch unstrittig. aber trotzdem erwarte ich einen leistungsschub: die strukturen werden ja auch kleiner (wo steht man bei grafikkarten 85nm *noahnung*) und ich denke, daß die energiesparoptimierungen bei den cpus auch deutlich weiter sind, oder?

edit:
oh, amd baut die gpus doch schon in 55nm (nvidia: 65nm)...na ja, trotzdem, ins 2012 sind es ja schon locker 32nm für die cpus

Na wenn endlich mal die GPU für normale Berechnungen mitbenutzt würde, dann würden die onboard oder on-DIE GPUs ja auch leistungsfähiger. bis jetzt sind die ja künstlich schwach gehalten weill ja Gamer die sowieso nicht nutzen. aber wnn mal der normale anwender die GPU ntzen kann (für parallel computing etc.), dann lohnt es sich auch die leistungsfähiger zu machen. Jetzt bin ich nur bereit 10$ für onboard graka zu aahlen, weil alles was die macht ist ein bild auf den Monitor werfen. Wenn die auch nnoch die CPU beschleunigen würde, wäre ich bereit 50$ zu zahlen... und dann wird das auch angeboten.
 
In ferner Zukunft wird vielleicht ein Chip alles erledigen. Inkl. Kaffee kochen :P

Naja, SystemOnAChip Lösungen gibt es schon ewig. Irgenwo war mal was, kompletter x86er PC im Kreditkartenformat. Ok, war damals wohl auch nur ein 386er.

Dass die IGPs verwschwinden werden glaube ich nicht so recht. Für kleine Notebooks sind die wohl interessant, die OnChip. Die Leistung wird unterhalb der jeweils möglichen OnBoards liegen.

Bei den derzeitigen Trends (CUDA, ...) glaub ich dann eher an die Ablösung der CPU, indem die Grafikchips das bissel x86 Huckepack mitbringen.Vielleicht in der Art wie die Transmeta x86 verarbeitet haben.
 
Zuletzt bearbeitet:
Ich bin da ehrlich gesagt eher skeptisch. Zum einen sagen Marktforschungsinstitute gerne das, was man von ihnen hören will. Zum anderen wurde schon häufig das Ende von diesem oder jenem vorausgesagt, eingetreten sind diese apokalyptischen Szenarien dann doch eher selten. Ich glaube, in drei Jahren sitzen wir noch genauso da wie heute: mit höher getakteten Phenom-II-Prozessoren und mit viel Glück dem Nachfolgerchipsatz des RG800.
 
Ich bin da ehrlich gesagt eher skeptisch. Zum einen sagen Marktforschungsinstitute gerne das, was man von ihnen hören will. Zum anderen wurde schon häufig das Ende von diesem oder jenem vorausgesagt, eingetreten sind diese apokalyptischen Szenarien dann doch eher selten. Ich glaube, in drei Jahren sitzen wir noch genauso da wie heute: mit höher getakteten Phenom-II-Prozessoren und mit viel Glück dem Nachfolgerchipsatz des RG800.
Ich kapier die ursprüngliche Meldung eh nicht. Welchen Sinn hat die denn ?

Die GPU wandert vom Chipsatzgehäuse ins CPU Gehäuse, später auch noch aufs gleiche DIE.

Wieso nennt man das nicht "onboard" ? Schwebt die CPU in der Luft, oder wie ?

Ok, die CPU wird meist einzeln dazugekauft, aber im Endeffekt ist die Meldung doch auf "in China fällt in 10 Jahren ein Sack Reis um" Niveau..

ciao

Alex
 
Die einzig sinnvolle Möglichkeit wäre doch wenn Grafikkarten wieder reine 3D Karten werden. 2D von der IGP der CPU, wenn es 3D sein muss extra Karte. Das würde Strom sparen weil 3D Beschleunige mal wirklich komplett abgeschaltet werden könnten. Und es würde sich durchsetzen können weil ja alle CPU eine IGP dabei hätten.
 
Das würde Strom sparen weil 3D Beschleunige mal wirklich komplett abgeschaltet werden könnten. Und es würde sich durchsetzen können weil ja alle CPU eine IGP dabei hätten.
Schon mal was von Vistas 3D Oberfläche gehört ? ;-)

Nicht mehr praktikabel, auch bei Linux gibts 3D.

ciao

Alex
 
Zurück
Oben Unten