IGP-Plattformduell: AMD 690G vs. Intel G965

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Zu dem Duell trat die AMD-Plattform mit einem Athlon64 X2 5600+ auf einem MSI K9AGM2-FIH an und die Intel-Plattform mit einem E6600 auf einem Intel DG965WH an.

Die beiden Plattformen wurden in den Bereichen Energieeffizienz, Videowiedergabe und Spieleperformance getestet. Dabei konnte AMD vor allem in den Bereichen Idle-Stromverbrauch, HD-Videowiedergabe, Spieleperformance und Preis/Leistung punkten, während Intel beim Volllast-Stromverbrauch und Video-/DVD-Wiedegabe besser da steht.

<b>Link:</b> <a href="http://blogs.zdnet.com/Ou/?p=632" target="b">AMD 690G versus Intel G965 PC shootout</b>
 
habs jetzt nur überflogen, aber schaut ja nicht so gut für den 690G aus
 
Von den Video Problemchen des 690G hab ich schon in der c`t gelesen.

Schande! :[
 
und so viel höher ist die 3D-spiele-performance des 690G auch nicht.

wer den Cent nicht 2 mal um drehen muss is bei intel klar besser bedient im moment.
 
und so viel höher ist die 3D-spiele-performance des 690G auch nicht.

wer den Cent nicht 2 mal um drehen muss is bei intel klar besser bedient im moment.
Sieht wohl leider so aus ;(
 
Irgendwie geht der Link bei mir gerade nicht....hatte den Test zwar mal kurz überflogen, aber könntet ihr mich mal aufklären, was mit Video-Problemchen gemeint ist? Ich überlege mir ein solches Brett zu holen.

Habe im Moment eine geForce 4 4200; und meinen neuen Rechner wollte ich vorerst keine GRaka gönnen. Wie ist die Leistung im Vergleich zu einer GF 4 4200?

Mfg sightus
 
Danke! Zwar ist das Testsystem sehr unterschiedlich, aber als Anhaltspunkt sicherlich zu gebrauchen. Jetzt muss ich nur noch rausfinden, was mit Video-Performance gemeint ist....
 
Naja, dafür kann man die Intel-Boards mit DVI/HDMI fast an einer Hand abzählen. Und warum die für den Test ausgerechnet den 5600+ nehmen ist mir ein Rätsel, ein Brisbane oder Windsor EE wäre fairer gewesen.

Aber das die G965 IGP (X3000, oder?) so gut ist hätt ich nciht gedacht, das wird alle Käufer eines aktuellen Notebooks mit diesem Chipsatz freuen und macht den G35 interessanter. Die IGP des G33 ist ja nicht so flott.
 
Wie jeder Test ist auch dieser nicht 100%ig, z.B. der am Ende angeführte E6550 hat z.B. einen FSB1333, sodass er minmal auf 2GHz (6x333) runterkommt mit EIST, sodass der Idle-Verbrauch dann wohl noch schlechter ist.
 
soweit ich weis hatte der amd chipsatz nochtreiber probs. was sich vor allem in der grakaleistung , amd sprach wohl von bis +40%, sowie dem stromverbrauch bemerkbar machen soll. so wies aussieht haben sie ohne den fix gebencht. aber trozdem ist im lastzustand wohl kein land zu sehen. bei der graka power aber evtl doch.
 
soweit ich weis hatte der amd chipsatz nochtreiber probs. was sich vor allem in der grakaleistung , amd sprach wohl von bis +40%, sowie dem stromverbrauch bemerkbar machen soll. so wies aussieht haben sie ohne den fix gebencht. aber trozdem ist im lastzustand wohl kein land zu sehen. bei der graka power aber evtl doch.


Na ja, man hat mit Catalyst 7.7 gebenched, ist doch aktuell oder nicht? Irgendwelche Chipsatztreiber sollten eigentlich nichts ausmachen. Natürlich ist mit Vista getestet worden, was ja lustigerweise den Herstellern immer noch Probleme bereitet.....

Etwas traurig ist, dass unter Vista der Catalyst offenbar nicht sehr gut mit dem Vista-DVD-Codec zusammenarbeitet und da doch eine sehr schlechte Bildqualität liefert. Das muss AMD dringend abstellen.

Ein Vergleich mit dem G965 ist eigentlich auch nicht ganz korrekt, ich denke die neue 3x-Chipsatzgeneration wäre angemessener gewesen. Es wird ja auch klar gesagt, dass das bei Intel den Idle-Verbrauch noch etwas gesenkt hätte.

Der 690G ist insgesamt ein guter Chipsatz, ich würde aber ein AMD-System momentan nur nehmen, wenn es um möglichst sparsame Office-Maschinen geht. Und da kommt dann ein X2-3800 rein und gut is. Dann ist der Verbrauch auch unter Last in Ordnung, und die Leistung reicht für Office/Internet. Wer die Leistung eines 5600+ oder mehr braucht, sollte angesichts des Lastverbrauches eher zu nem Intel-System greifen IMHO.
 
Die haben den G965-Chipsatz schon richitg gewählt, da der G35 noch nicht verfügbar ist und in G33 und G31 mit dem GMA 3100 ein dem GMA 3000 aus Q965 und 946GZ sehr ähnlicher und daher nicht auf Unified Shader basierender grafikprozessor zum Einsatz kommt.

So kann man sich schonmal ein Bild machen wie gut der X3500 des G35 wird (noch etwas schneller, DX10 usw).
 
Naja, dafür kann man die Intel-Boards mit DVI/HDMI fast an einer Hand abzählen. Und warum die für den Test ausgerechnet den 5600+ nehmen ist mir ein Rätsel, ein Brisbane oder Windsor EE wäre fairer gewesen.

Aber das die G965 IGP (X3000, oder?) so gut ist hätt ich nciht gedacht, das wird alle Käufer eines aktuellen Notebooks mit diesem Chipsatz freuen und macht den G35 interessanter. Die IGP des G33 ist ja nicht so flott.

SOOOO gut ist der X3000 leider auch nicht. Im Multimediabereich ist er erstklassig, selbst DxVA kann er gut umsetzen (minimale CPU Last bei HDTV-Material). Aber: Er kann dank mangelnder Treiber noch immer nicht das bringen, womit er beworben wird. Die Shader werden erst seit dem letzten BETA Treiber eingesetzt! Der Grafikchipsatz ist mittlerweile 1 Jahr draussen... der BETA-Treiber erschien vor ~1 Monat. DirectX 9 Effekte stellt er allesamt dar, ist aber doch recht langsam dabei, OpenGL ist auch erst mit dem BETA-Treiber zu gebrauchen. Mit dem letzten Offiziellen ist OpenGL eher eine DIA-Show. Direct3D ist bei beiden Treibern etwa gleich gut.
Ob DirectX 10 nun *wirklich* schon unterstützt wird, wie beworben, wage ich zu bezweifeln. Hardwaretechnisch machbar, ja. Aber die Treiber sind ein Graus...

PS: Ich habe das oben genannte MoBo, ebenso auch die beiden kleinen Geschwister DG965OT @ µATX. Bin sehr zufrieden mit den Plattformen. Sehr stabil.

Aber einen Nachgeschmack hat der Chipsatz: Bei Verwendung einer externen Grafikkarte schaltet sich die OnBoard X3000 leider ab. Das kann man nicht verhindern. Dies gefiel mir beim A8N-VM CSM besser (GeForce 6150), da man diese weiternutzen konnte (externer LCD-TV). Und @ Spiele ist die ältere 6150 auch besser, als der X3000.
.
EDIT :
.

Danke! Zwar ist das Testsystem sehr unterschiedlich, aber als Anhaltspunkt sicherlich zu gebrauchen. Jetzt muss ich nur noch rausfinden, was mit Video-Performance gemeint ist....
Prozessorbelastung, Stromverbrauch und vor allem... BILDQUALITÄT!
.
EDIT :
.

Wie jeder Test ist auch dieser nicht 100%ig, z.B. der am Ende angeführte E6550 hat z.B. einen FSB1333, sodass er minmal auf 2GHz (6x333) runterkommt mit EIST, sodass der Idle-Verbrauch dann wohl noch schlechter ist.
Ursprünglich verwendeten sie ja den 6600 (wie auch ich ihn verwende), aber aus "Preis/Leistungsgründen" (wieso auch immer) wechselten sie zum 6550.
.
EDIT :
.

soweit ich weis hatte der amd chipsatz nochtreiber probs. was sich vor allem in der grakaleistung , amd sprach wohl von bis +40%, sowie dem stromverbrauch bemerkbar machen soll. so wies aussieht haben sie ohne den fix gebencht. aber trozdem ist im lastzustand wohl kein land zu sehen. bei der graka power aber evtl doch.
Das ist beim Intel GMA X3000 nicht anders. Der nutzt noch nicht einmal 100% seines Potentials. Die Shader wurden erst mit dem letzten BETA-Treiber in Betrieb genommen; vorher lagen sie brach...
 
Ursprünglich verwendeten sie ja den 6600 (wie auch ich ihn verwende), aber aus "Preis/Leistungsgründen" (wieso auch immer) wechselten sie zum 6550.
Die positiven Aspekte wie den Preis fließen auch in die Bewertung ein, aber die evtl. Probleme (mehr Verbrauch) bei EIST werden verschwiegen...
 
Die positiven Aspekte wie den Preis fließen auch in die Bewertung ein, aber die evtl. Probleme (mehr Verbrauch) bei EIST werden verschwiegen...
Ehrlich gesagt finde ich den Test oben auch ein wenig oberflächlich. Ich bin der Meinung, P3Dnow hat schonmal auf einen anderen (umfangreicheren Test/Vergleich) mit 4(!) Chipsätzen verlinkt.

Allgemein kann man jedoch sagen das der P965/G965 und der Q965 verdammt gute und ausgereifte, sparsame Chipsätze sind. Den letzten Chipsatz, den ich so mochte, war der Intel BX 440... und das ist lange her.
 
Ehrlich gesagt finde ich den Test oben auch ein wenig oberflächlich. Ich bin der Meinung, P3Dnow hat schonmal auf einen anderen (umfangreicheren Test/Vergleich) mit 4(!) Chipsätzen verlinkt.

Allgemein kann man jedoch sagen das der P965/G965 und der Q965 verdammt gute und ausgereifte, sparsame Chipsätze sind. Den letzten Chipsatz, den ich so mochte, war der Intel BX 440... und das ist lange her.
Dito.

Aber mal zum Punkt Bildqualität? Hast du da Erfahrungen mitzuteilen? Gerade der analoge TV-Out interessiert mich :)

MfG Jan
 
Dito.

Aber mal zum Punkt Bildqualität? Hast du da Erfahrungen mitzuteilen? Gerade der analoge TV-Out interessiert mich :)

MfG Jan
Genau zu DEM kann ich leider NICHTS sagen, weil ich a) das TV-Out Modul nicht habe, weil es b) nicht mitgeliefert worden ist.

Im Lieferumfang der original Intel Retailbretter befindet sich nur der VGA Anschluß mit einer Plastikverschlußkappe. Leider kein TV-Out Modul. Und wie dem so ist, mit diesen TV-Out Headern, die man auf einem Mainboard findet, hängt es auch noch stark von der verwendeten TV-Out-Blende, oder eher dem verwendeten KABEL vom HEADER zum SLOTBLECH ab, wie gut das Signal letztlich STÖRUNGSFREI durchgereicht wird.
Der analoge VGA Anschluß jedoch ist gut. Ich kann keinerlei Störungen am CRT feststellen. Am TFT habe ich leichte Streifen, denke aber das sie vom Medion TFT selber kommen (Älteres 65xx Modell vom ALDI) *g*

Was die Wiedergabequalität von Filmen und DVDs anbelangt, so kann man oben verlinkten Test vertrauen. Es ist tatsächlich so, wie geschildert. Dürfte aber auch nicht weiter verwundern, da Intel mit "ClearVideo" diese IGP extra dafür konzipiert hat. Es wäre traurig gewesen, wenn die ATI Lösung dort besser gepunktet hätte.

Zur Qualität in 3D Spielen muß ich sagen, das auch bei Verwendung von "high quality" verständlicherweise NICHT die Brillianz und Qualität einer externen 3D Gamerkarte erreicht wird/erreicht werden kann.
 
Zuletzt bearbeitet:
Genau zu DEM kann ich leider NICHTS sagen, weil ich a) das TV-Out Modul nicht habe, weil es b) nicht mitgeliefert worden ist.

Im Lieferumfang der original Intel Retailbretter befindet sich nur der VGA Anschluß mit einer Plastikverschlußkappe. Leider kein TV-Out Modul. Und wie dem so ist, mit diesen TV-Out Headern, die man auf einem Mainboard findet, hängt es auch noch stark von der verwendeten TV-Out-Blende, oder eher dem verwendeten KABEL vom HEADER zum SLOTBLECH ab, wie gut das Signal letztlich STÖRUNGSFREI durchgereicht wird.
Der analoge VGA Anschluß jedoch ist gut. Ich kann keinerlei Störungen am CRT feststellen. Am TFT habe ich leichte Streifen, denke aber das sie vom Medion TFT selber kommen (Älteres 65xx Modell vom ALDI) *g*
Streifen? Aldi TFT? )((

Wenn schon Bildqualität testen dann richtig. Ich würde mir dann schon eine eigene Lösung löten^^ Hätte ja sein können das du das auch schon in Angriff genommen hast.

MfG Jan
 
Streifen? Aldi TFT? )((

Wenn schon Bildqualität testen dann richtig. Ich würde mir dann schon eine eigene Lösung löten^^ Hätte ja sein können das du das auch schon in Angriff genommen hast.

MfG Jan
Wie, was in Angriff genommen... das TV-Out Kabel löten? Neee... ich warte darauf, das meine 7900GT aus der RMA kommt. Oder ich hole mir 'ne 8800GTS. Werde mir aber wohl noch eine zweite GraKa holen müssen, da ich für mein LCD TV ebenfalls einen VGA Anschluß nutze (keinen TV-Out, pfui... sind ja nur max. 800x600/1024x768... und das auch noch Unscharf ^^;) und die Onboard IGP ja leider "verschwindet" sobald eine Externe eingebaut ist...

Und zum TFT: Zum Arbeiten langt's... aber ich finde ihn zum Kotzen übel. Würde ja auch lieber wieder meinen Samtron 78BDF auf den Tisch hauen, aber dann bleibt nicht mehr viel Arbeitsplatz über :-/

Naja, momentan etwas provisorisch bei mir.
.
EDIT :
.

Man hätte allerdings noch erwähnen können, das in einem unbelüfteten ATX Tower gerne 90°C und mehr an der ICH anliegen... ;D
 
was mich mal interessieren würde ist, wie es bei den externen Grakas HD2900/GF8800 usw. um die Video-quallität bestellt ist.
 
Zurück
Oben Unten