News NVIDIA GeForce GT 220 Reviews

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Nachdem NVIDIAs Boardpartner heute die GeForce GT 220 und G 210 für die Endkunden <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1255366516">vorgestellt haben</a>, sind auch entsprechend Reviews für die GeForce GT 220 verfügbar. Wir geben euch einen kleinen Überblick.

<b> Geforce GT 220 im Test: Nvidias DirectX-10.1-Grafikkarte</b> (Quelle: <img src="/images/deutsch.gif" border="1" height="10" width="15"> <a href="http://www.pcgameshardware.de/aid,696904/Geforce-GT-220-im-Test-Nvidias-DirectX-101-Grafikkarte/Grafikkarte/Test/">PC Games Hardware</a>)

<blockquote>"Nvidias Geforce GT 220 benötigt trotz 40-Nanometer-GPU mehr Strom als AMDs ältere 55-Nanometer-Karten Radeon HD 3870 und Radeon HD 4670. Beide Radeons bieten mehr Spieleleistung, kosten jedoch auch 10 bis 20 Euro mehr. In Sachen Lautheit überzeugen die von uns getesteten GT-220-Karten ebenfalls nur teilweise - die Leistungsaufnahme der GPU (etwa 40 Watt in der Spitze) ließe sich problemlos passiv abführen."</blockquote>

<b>Test: Zotac GeForce GT 220</b> (Quelle: <img src="/images/deutsch.gif" border="1" height="10" width="15"> <a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_zotac_geforce_gt_220/">ComputerBase</a>)

<blockquote>"Das Ganze hat allerdings noch einen Haken: Denn so macht es derzeit den Anschein, als würde die Low-End-Karte zu Beginn für einen Preis von 60 bis 65 Euro über die Ladentheke wandern, was definitiv zu viel ist. Denn für den Preis kann selbst schon eine bessere GeForce 9600 GT oder alternativ eine günstigere Radeon HD 4670 ergattert werden. Bei ATi fehlt dem Käufer zwar die CUDA-Unterstützung, jedoch können viele Kunden darauf wahrscheinlich verzichten. Fällt der Preis dagegen auf etwa 50 Euro oder darunter, macht man mit der GeForce GT 220 in einem HTPC oder einem Rechner mit geringen Ansprüchen nichts verkehrt – so lange die Lautstärke geringer ausfällt oder nur eine untergeordnete Rolle spielt."</blockquote>

<b>NVIDIA’s GeForce GT 220: 40nm and DX10.1 for the Low-End</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://anandtech.com/video/showdoc.aspx?i=3657">AnandTech</a>)

<blockquote>"This is turning out to be a rough fall for NVIDIA. AMD has them undoubtedly beat in price-to-performance on the high-end of the market. And with today’s launch of the GT 220, it looks like AMD has them beat on the low-end too. There are very few NVIDIA cards that offer the right level of price and performance right now; the GT 220 is not one of those cards."</blockquote>

<b>Galaxy GeForce GT 220 1GB Video Card</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.tweaktown.com/reviews/2962/galaxy_geforce_gt_220_1gb_video_card/index.html">TweakTown</a>)

<blockquote>"There's a bit of hidden performance behind the cooler and we've got native HDMI port and a single slot solution. It wouldn't do too bad in a home theater system (HTPC) and as we said, if you're looking for something to play those old games at lower resolutions, it could be the right card for you. "</blockquote>

<b>Palit & Gainward Geforce GT220</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.driverheaven.net/reviews.php?reviewid=854">DriverHeaven</a>)

<blockquote>"Nvidia (and partners) have created a card with a strong balance of performance to power while keeping the temperatures at a very respectable level. Our overclocked model never rose above 61 degrees Celsius and does not require an additional power cable. Framerates across all of our tests were ideal and exceeded the Radeon 4650. Additionally, we also have the option to use PhysX on the GT 220, a feature which ATI lack."</blockquote>

<b> GeForce GT 220 review </b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.guru3d.com/article/geforce-gt-220-review-test/">Guru3D</a>)

<blockquote>"The GT 220 competes well with the Radeon HD 4650 but we do recommend you to look into the Radeon HD 4670 as it outperforms this product at roughly the same price. Then again, if you are into gaming .. we doubt you are even looking at this card as a viable option as you'd be compromising consistently on image quality."</blockquote>

<b>Palit GeForce GT 220 Sonic 512 MB</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.techpowerup.com/reviews/Palit/GeForce_GT_220">techPowerUp</a>)

<blockquote>"When compared to the one-year old Radeon HD 4670, which sits at an even lower price point, the HD 4670 wins in Performance, Price, Perf/Watt, Perf/Dollar. Out of these criteria for a low-end card the most important is price. Just price, not price/performance - 3D performance doesn't matter for 2D/Aero desktop. Right now the GT 220 cards are going for $70-$80, which is clearly too high. Thanks to the 40 nm process NVIDIA can make those GPUs really, really cheap. This, in my opinion, is the whole point of this product: cheaper GPUs for NVIDIA, better margins. In order to be able to compete in the retail market, the price of these cards has to go down to the $50 region."</blockquote>

<b>Zotac GeForce GT 220 1 GB</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.techpowerup.com/reviews/Zotac/GeForce_GT_220">techPowerUp</a>)

<blockquote>"I am not that happy with Zotac's implementation of the GeForce GT 220, for some reason (probably cost) they chose the low memory clock speed of 790 MHz and used 1 GB of GDDR3. While 1 GB GDDR3 might read nice it has absolutely no performance impact on this kind of product, there is a difference at 2560x1600, but you are not going to game on a $1000 display with a $80 card. Another point is the fan noise, even though it is quiet there is still a lot of room for optimization here."</blockquote>
 
Na, der GT200b sah ja im vergleich zur HD4870er-Recht effizient aus, weil dieser mit 1,18 Volt deutlich niedriger war als der HD4870 mit 1,28 Volt.

Im Massenmarkt ist geht der große Volt-Unterschied nicht mehr (so einfach), wodurch im Low-End & mainstream die ATI-GPUs mit vielleicht gleichen Volts deutlich effizienter aussehen als im Performancen und High-End-Markt.

Na ja, meine Vermutung.
Überraschen tut mich das nicht ganz so.
 
Sieht mir doch sehr nach Bashmarks aus, oder warum werden hier plötzlich Low End Grafikkarten breitfächrig, wie zumindest eine Midrange Karte, gebencht? Von den Lesern der Seiten hätte sich auch vorher keiner die Karte gekauft und eigentlich interessierts niemanden.
 
Na, so ein super glueckliches Haendchen schein Nvidia mit dem GT220 nicht zu haben...der Tenor ist nicht so super positiv....vor allem nicht positiv genug, um den anstehenden Launch der ATI 57XX Karten ein wenig Aufmerksamkeit zu stehlen (ausser bei dem Reviewern natuerlich...)
 
So richtig toll ist die GT 220 sicher nicht, aber ein guter Nachfolger für meine alte, schwächelnde GeForce 8600 GT ist sie. Mir ist der Stromverbrauch relativ wichtig, aber brauche NVidia.
Schade, AMD hat eigentlich die besseren GPUs in diesem Leistungsbereich.

Wenn die Preise nochmal im Schnitt um 10 EUR sinken ist eine Karte gekauft.
 
Sieht mir doch sehr nach Bashmarks aus, oder warum werden hier plötzlich Low End Grafikkarten breitfächrig, wie zumindest eine Midrange Karte, gebencht? Von den Lesern der Seiten hätte sich auch vorher keiner die Karte gekauft und eigentlich interessierts niemanden.

Na, was sollen die Reviewer denn sonst mit einer von Nv lang und breit angekündigten Karte machen? :] Ignorieren? Das können sich die Reviewer im Hinblick auf zukünftige Tests sicher nicht leisten. Schönreden? Ahäm ... *suspect*
Nv scheint meiner Ansicht gerade eine mehr unglückliche als gekonnte Opferzeremonie für den Fermi darzubieten; erst die ganzen Performance-Karten weg (sicher aus Angst, die Preise könnten fallen und damit dem Fermi Kunden schon im vorweg abgraben) und jetzt die super-duper Low-End-Karte. Bin echt mal gespannt, was sich da noch so zusammenbraut. *suspect*;D

S
 
wer hätte das vor ein paar monaten gedacht?

ziemlicher niedergang von nvidia zur zeit. wo soll man da anfangen?

im notebookbereich die marktführerschaft an ati verloren, keine weiterentwicklung der chipsätze mehr und wohl bald völliger zusammenbruch des chipsatzmarktes.
high end markt erstmal aufgegeben und im einsteigerbereich kommen neue karten die eher nicht zu empfehlen sind.
hoffnung auf fermi.... und dann wieder das gleiche spiel, zu großer chip, zu teuer....
 
wer hätte das vor ein paar monaten gedacht?
Dass ATI mit kleineren kompakten GPUs bei der Fertigungsverkleinerung schneller sein kann, an das dachte ich immer schon.
Wobei ich an die Auswirkungen & Unterschied 180 mm² (HD5770) vs. 500 mm² (GTX 260/275) nicht dachte, die annähnernd gleiche Performance hatten.

Die Chipsatz-Entwicklung zeigte sich schon lange ab.
Nvidia brachte bei AMD-Chipsätzen ja nichts raus und mit Clakedale ist ja der Beginn von Nvidias Chipsatzs-Ende.

Man kann sagen, momentan ist AMD in der GPU-Abteilung in der Situation, in der Intel in der CPU-Abteilung ist.
Denn AMD kann wie Intel ihre GPUs (deutlich) früher in kleinerer Fertigung auf dem Markt werfen und in der Zeit hat Nvidia kaum Chancen und muss sich irgendwie über Wasser halten.
AMD kennt das zu gut mit ihren CPUs.

Auf alle Fälle könnte AMD wirklich den goldenen Apfel abschießen.
Denn mit der momentanen Dominanz werden Nvidias geschlossene Standards (Cuda & PhysX) etwas in Frage gestellt.
Vorallem dann, wenn Femi nicht in Dezember sondern in Februar kommt.
Es ist ein sehr ungünstiger Zeitpunkt.
Nvidia zeigt praktisch:" Hey, ihr seht, wenn ihr auf geschlossene Standards setzt, habt ihr auch Verspätungen, wenn sich die Grafikkarte verspätet".
Sehr ungünstig, dass OpenCL gerade jetzt eingeführt wurde, auch wenn DP momentan noch nicht läuft.
 
Zuletzt bearbeitet:
Wen erinnert das ganze noch an Radeon 9700 vs GeForce FX 5800 ? ^.^
 
... Man kann sagen, momentan ist AMD in der GPU-Abteilung in der Situation, in der Intel in der CPU-Abteilung ist.
Denn AMD kann wie Intel ihre GPUs (deutlich) früher in kleinerer Fertigung auf dem Markt werfen und in der Zeit hat Nvidia kaum Chancen und muss sich irgendwie über Wasser halten.
AMD kennt das zu gut mit ihren CPUs. ...
Das sehe ich auch so ...

allerdings ist das paradoxe dabei, dass beide Firmen sich der Fertigungstechnik von TSMC bedienen. Da muss also noch mehr dahinter stecken, wenn AMD/ATI schneller am Markt mit frischen Shrinks drin sind.

Es kommt mir fast so vor, als wenn der kleine x86-Gigant zu Hause in den eigenen Fabs "vorkocht" und die Halbleiterhürden so intern früher nehmen können, als Nvidia, die ausschliesslich sich auf TSMC und fremde Entwicklerfirmen verlassen müssen.

Zugegeben das ist Spekulation, aber anders kann ich mir diesen "Fertigungs"-Vorsprung nicht erklären.
Das hatte sich ja schon seit dem "kleinen" R600 Refresh angedeutet. Die Einstiegs- (RV610) und Mittelklasse (RV630) wurde ja gleich 65 nm hergestellt und nicht mehr in 80 nm-Technik.

MFG Bobo(2009)
 
wer hätte das vor ein paar monaten gedacht?

ziemlicher niedergang von nvidia zur zeit. wo soll man da anfangen?

im notebookbereich die marktführerschaft an ati verloren, keine weiterentwicklung der chipsätze mehr und wohl bald völliger zusammenbruch des chipsatzmarktes.
high end markt erstmal aufgegeben und im einsteigerbereich kommen neue karten die eher nicht zu empfehlen sind.
hoffnung auf fermi.... und dann wieder das gleiche spiel, zu großer chip, zu teuer....
Wie gesagt : http://www.planet3dnow.de/vbulletin/showpost.php?p=4049501&postcount=31 *lol* ;D ;D *rofl*

Aber die Situation bahnte sich schon länger an.... 20% mehr Leistung für doppelte Knete ? da bleibt die Zielgruppe überschaubar .... Fertigungsprobleme sind nun auch schon ein ganzes Weilchen Dauerthema bei NV.... Aber womöglich ist ja Fehmi :-[ äh Fermi ja doch der ganz dicke Bringer oder ihnen fällt sonst was ein um sich wieder zu rappeln

Mmoe
 
Ist die Palit (Retail) GT220 512MB/DDR3 als Zweitkarte zur reinen PhysX nutzung zu gebrauchen. Zum einen neben einer Palit GTX 260 Sonic 216 und in anderen PC neben einer MSI NVidia 8000GTX. Zur Zeit stecken in beiden neben der jeweiligen Grafikkarte, eine AGEIA BFG Phys-X Karte mit 128MB als PCI Karte.

Macht der Einsatz der Geforce GT 220 als reine PhysX Karte Sinn?
 
Zurück
Oben Unten