App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News NVIDIA GeForce GT 220 Reviews
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Nachdem NVIDIAs Boardpartner heute die GeForce GT 220 und G 210 für die Endkunden <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1255366516">vorgestellt haben</a>, sind auch entsprechend Reviews für die GeForce GT 220 verfügbar. Wir geben euch einen kleinen Überblick.
<b> Geforce GT 220 im Test: Nvidias DirectX-10.1-Grafikkarte</b> (Quelle: <img src="/images/deutsch.gif" border="1" height="10" width="15"> <a href="http://www.pcgameshardware.de/aid,696904/Geforce-GT-220-im-Test-Nvidias-DirectX-101-Grafikkarte/Grafikkarte/Test/">PC Games Hardware</a>)
<blockquote>"Nvidias Geforce GT 220 benötigt trotz 40-Nanometer-GPU mehr Strom als AMDs ältere 55-Nanometer-Karten Radeon HD 3870 und Radeon HD 4670. Beide Radeons bieten mehr Spieleleistung, kosten jedoch auch 10 bis 20 Euro mehr. In Sachen Lautheit überzeugen die von uns getesteten GT-220-Karten ebenfalls nur teilweise - die Leistungsaufnahme der GPU (etwa 40 Watt in der Spitze) ließe sich problemlos passiv abführen."</blockquote>
<b>Test: Zotac GeForce GT 220</b> (Quelle: <img src="/images/deutsch.gif" border="1" height="10" width="15"> <a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_zotac_geforce_gt_220/">ComputerBase</a>)
<blockquote>"Das Ganze hat allerdings noch einen Haken: Denn so macht es derzeit den Anschein, als würde die Low-End-Karte zu Beginn für einen Preis von 60 bis 65 Euro über die Ladentheke wandern, was definitiv zu viel ist. Denn für den Preis kann selbst schon eine bessere GeForce 9600 GT oder alternativ eine günstigere Radeon HD 4670 ergattert werden. Bei ATi fehlt dem Käufer zwar die CUDA-Unterstützung, jedoch können viele Kunden darauf wahrscheinlich verzichten. Fällt der Preis dagegen auf etwa 50 Euro oder darunter, macht man mit der GeForce GT 220 in einem HTPC oder einem Rechner mit geringen Ansprüchen nichts verkehrt – so lange die Lautstärke geringer ausfällt oder nur eine untergeordnete Rolle spielt."</blockquote>
<b>NVIDIA’s GeForce GT 220: 40nm and DX10.1 for the Low-End</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://anandtech.com/video/showdoc.aspx?i=3657">AnandTech</a>)
<blockquote>"This is turning out to be a rough fall for NVIDIA. AMD has them undoubtedly beat in price-to-performance on the high-end of the market. And with today’s launch of the GT 220, it looks like AMD has them beat on the low-end too. There are very few NVIDIA cards that offer the right level of price and performance right now; the GT 220 is not one of those cards."</blockquote>
<b>Galaxy GeForce GT 220 1GB Video Card</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.tweaktown.com/reviews/2962/galaxy_geforce_gt_220_1gb_video_card/index.html">TweakTown</a>)
<blockquote>"There's a bit of hidden performance behind the cooler and we've got native HDMI port and a single slot solution. It wouldn't do too bad in a home theater system (HTPC) and as we said, if you're looking for something to play those old games at lower resolutions, it could be the right card for you. "</blockquote>
<b>Palit & Gainward Geforce GT220</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.driverheaven.net/reviews.php?reviewid=854">DriverHeaven</a>)
<blockquote>"Nvidia (and partners) have created a card with a strong balance of performance to power while keeping the temperatures at a very respectable level. Our overclocked model never rose above 61 degrees Celsius and does not require an additional power cable. Framerates across all of our tests were ideal and exceeded the Radeon 4650. Additionally, we also have the option to use PhysX on the GT 220, a feature which ATI lack."</blockquote>
<b> GeForce GT 220 review </b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.guru3d.com/article/geforce-gt-220-review-test/">Guru3D</a>)
<blockquote>"The GT 220 competes well with the Radeon HD 4650 but we do recommend you to look into the Radeon HD 4670 as it outperforms this product at roughly the same price. Then again, if you are into gaming .. we doubt you are even looking at this card as a viable option as you'd be compromising consistently on image quality."</blockquote>
<b>Palit GeForce GT 220 Sonic 512 MB</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.techpowerup.com/reviews/Palit/GeForce_GT_220">techPowerUp</a>)
<blockquote>"When compared to the one-year old Radeon HD 4670, which sits at an even lower price point, the HD 4670 wins in Performance, Price, Perf/Watt, Perf/Dollar. Out of these criteria for a low-end card the most important is price. Just price, not price/performance - 3D performance doesn't matter for 2D/Aero desktop. Right now the GT 220 cards are going for $70-$80, which is clearly too high. Thanks to the 40 nm process NVIDIA can make those GPUs really, really cheap. This, in my opinion, is the whole point of this product: cheaper GPUs for NVIDIA, better margins. In order to be able to compete in the retail market, the price of these cards has to go down to the $50 region."</blockquote>
<b>Zotac GeForce GT 220 1 GB</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.techpowerup.com/reviews/Zotac/GeForce_GT_220">techPowerUp</a>)
<blockquote>"I am not that happy with Zotac's implementation of the GeForce GT 220, for some reason (probably cost) they chose the low memory clock speed of 790 MHz and used 1 GB of GDDR3. While 1 GB GDDR3 might read nice it has absolutely no performance impact on this kind of product, there is a difference at 2560x1600, but you are not going to game on a $1000 display with a $80 card. Another point is the fan noise, even though it is quiet there is still a lot of room for optimization here."</blockquote>
<b> Geforce GT 220 im Test: Nvidias DirectX-10.1-Grafikkarte</b> (Quelle: <img src="/images/deutsch.gif" border="1" height="10" width="15"> <a href="http://www.pcgameshardware.de/aid,696904/Geforce-GT-220-im-Test-Nvidias-DirectX-101-Grafikkarte/Grafikkarte/Test/">PC Games Hardware</a>)
<blockquote>"Nvidias Geforce GT 220 benötigt trotz 40-Nanometer-GPU mehr Strom als AMDs ältere 55-Nanometer-Karten Radeon HD 3870 und Radeon HD 4670. Beide Radeons bieten mehr Spieleleistung, kosten jedoch auch 10 bis 20 Euro mehr. In Sachen Lautheit überzeugen die von uns getesteten GT-220-Karten ebenfalls nur teilweise - die Leistungsaufnahme der GPU (etwa 40 Watt in der Spitze) ließe sich problemlos passiv abführen."</blockquote>
<b>Test: Zotac GeForce GT 220</b> (Quelle: <img src="/images/deutsch.gif" border="1" height="10" width="15"> <a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_zotac_geforce_gt_220/">ComputerBase</a>)
<blockquote>"Das Ganze hat allerdings noch einen Haken: Denn so macht es derzeit den Anschein, als würde die Low-End-Karte zu Beginn für einen Preis von 60 bis 65 Euro über die Ladentheke wandern, was definitiv zu viel ist. Denn für den Preis kann selbst schon eine bessere GeForce 9600 GT oder alternativ eine günstigere Radeon HD 4670 ergattert werden. Bei ATi fehlt dem Käufer zwar die CUDA-Unterstützung, jedoch können viele Kunden darauf wahrscheinlich verzichten. Fällt der Preis dagegen auf etwa 50 Euro oder darunter, macht man mit der GeForce GT 220 in einem HTPC oder einem Rechner mit geringen Ansprüchen nichts verkehrt – so lange die Lautstärke geringer ausfällt oder nur eine untergeordnete Rolle spielt."</blockquote>
<b>NVIDIA’s GeForce GT 220: 40nm and DX10.1 for the Low-End</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://anandtech.com/video/showdoc.aspx?i=3657">AnandTech</a>)
<blockquote>"This is turning out to be a rough fall for NVIDIA. AMD has them undoubtedly beat in price-to-performance on the high-end of the market. And with today’s launch of the GT 220, it looks like AMD has them beat on the low-end too. There are very few NVIDIA cards that offer the right level of price and performance right now; the GT 220 is not one of those cards."</blockquote>
<b>Galaxy GeForce GT 220 1GB Video Card</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.tweaktown.com/reviews/2962/galaxy_geforce_gt_220_1gb_video_card/index.html">TweakTown</a>)
<blockquote>"There's a bit of hidden performance behind the cooler and we've got native HDMI port and a single slot solution. It wouldn't do too bad in a home theater system (HTPC) and as we said, if you're looking for something to play those old games at lower resolutions, it could be the right card for you. "</blockquote>
<b>Palit & Gainward Geforce GT220</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.driverheaven.net/reviews.php?reviewid=854">DriverHeaven</a>)
<blockquote>"Nvidia (and partners) have created a card with a strong balance of performance to power while keeping the temperatures at a very respectable level. Our overclocked model never rose above 61 degrees Celsius and does not require an additional power cable. Framerates across all of our tests were ideal and exceeded the Radeon 4650. Additionally, we also have the option to use PhysX on the GT 220, a feature which ATI lack."</blockquote>
<b> GeForce GT 220 review </b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.guru3d.com/article/geforce-gt-220-review-test/">Guru3D</a>)
<blockquote>"The GT 220 competes well with the Radeon HD 4650 but we do recommend you to look into the Radeon HD 4670 as it outperforms this product at roughly the same price. Then again, if you are into gaming .. we doubt you are even looking at this card as a viable option as you'd be compromising consistently on image quality."</blockquote>
<b>Palit GeForce GT 220 Sonic 512 MB</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.techpowerup.com/reviews/Palit/GeForce_GT_220">techPowerUp</a>)
<blockquote>"When compared to the one-year old Radeon HD 4670, which sits at an even lower price point, the HD 4670 wins in Performance, Price, Perf/Watt, Perf/Dollar. Out of these criteria for a low-end card the most important is price. Just price, not price/performance - 3D performance doesn't matter for 2D/Aero desktop. Right now the GT 220 cards are going for $70-$80, which is clearly too high. Thanks to the 40 nm process NVIDIA can make those GPUs really, really cheap. This, in my opinion, is the whole point of this product: cheaper GPUs for NVIDIA, better margins. In order to be able to compete in the retail market, the price of these cards has to go down to the $50 region."</blockquote>
<b>Zotac GeForce GT 220 1 GB</b> (Quelle: <img src="/images/englisch.gif" border="1" height="10" width="15"> <a href="http://www.techpowerup.com/reviews/Zotac/GeForce_GT_220">techPowerUp</a>)
<blockquote>"I am not that happy with Zotac's implementation of the GeForce GT 220, for some reason (probably cost) they chose the low memory clock speed of 790 MHz and used 1 GB of GDDR3. While 1 GB GDDR3 might read nice it has absolutely no performance impact on this kind of product, there is a difference at 2560x1600, but you are not going to game on a $1000 display with a $80 card. Another point is the fan noise, even though it is quiet there is still a lot of room for optimization here."</blockquote>
Stefan Payne
Grand Admiral Special
OMG oO :O
Ist dieses Teil wirklich so schlecht oO
Ist dieses Teil wirklich so schlecht oO
Na, der GT200b sah ja im vergleich zur HD4870er-Recht effizient aus, weil dieser mit 1,18 Volt deutlich niedriger war als der HD4870 mit 1,28 Volt.
Im Massenmarkt ist geht der große Volt-Unterschied nicht mehr (so einfach), wodurch im Low-End & mainstream die ATI-GPUs mit vielleicht gleichen Volts deutlich effizienter aussehen als im Performancen und High-End-Markt.
Na ja, meine Vermutung.
Überraschen tut mich das nicht ganz so.
Im Massenmarkt ist geht der große Volt-Unterschied nicht mehr (so einfach), wodurch im Low-End & mainstream die ATI-GPUs mit vielleicht gleichen Volts deutlich effizienter aussehen als im Performancen und High-End-Markt.
Na ja, meine Vermutung.
Überraschen tut mich das nicht ganz so.
Sieht mir doch sehr nach Bashmarks aus, oder warum werden hier plötzlich Low End Grafikkarten breitfächrig, wie zumindest eine Midrange Karte, gebencht? Von den Lesern der Seiten hätte sich auch vorher keiner die Karte gekauft und eigentlich interessierts niemanden.
Na, so ein super glueckliches Haendchen schein Nvidia mit dem GT220 nicht zu haben...der Tenor ist nicht so super positiv....vor allem nicht positiv genug, um den anstehenden Launch der ATI 57XX Karten ein wenig Aufmerksamkeit zu stehlen (ausser bei dem Reviewern natuerlich...)
So richtig toll ist die GT 220 sicher nicht, aber ein guter Nachfolger für meine alte, schwächelnde GeForce 8600 GT ist sie. Mir ist der Stromverbrauch relativ wichtig, aber brauche NVidia.
Schade, AMD hat eigentlich die besseren GPUs in diesem Leistungsbereich.
Wenn die Preise nochmal im Schnitt um 10 EUR sinken ist eine Karte gekauft.
Schade, AMD hat eigentlich die besseren GPUs in diesem Leistungsbereich.
Wenn die Preise nochmal im Schnitt um 10 EUR sinken ist eine Karte gekauft.
Sliven
Lieutnant
- Mitglied seit
- 10.07.2008
- Beiträge
- 56
- Renomée
- 1
- Standort
- Dresden / Magdeburg
- Prozessor
- AMD Athlon 64 X2 4800+
- Mainboard
- MSI-K9AG Neo2 Digital
- Kühlung
- Boxed
- Speicher
- 4x1024 OCZ DDR2-800 Gold
- Grafikprozessor
- AMD/ATi HD3870 512Mb
- Display
- BEnQ FP91G X 19"
- HDD
- WD 180 GB intern | Seagate Freeagent Pro 750 Gb
- Optisches Laufwerk
- LG GSA 4167B
- Soundkarte
- Sound Blaster Audigy
- Gehäuse
- Raidmax Ninja
- Netzteil
- Sharkoon SilentStorm 480 W
- Betriebssystem
- XP SP2
- Webbrowser
- IE 7
Sieht mir doch sehr nach Bashmarks aus, oder warum werden hier plötzlich Low End Grafikkarten breitfächrig, wie zumindest eine Midrange Karte, gebencht? Von den Lesern der Seiten hätte sich auch vorher keiner die Karte gekauft und eigentlich interessierts niemanden.
Na, was sollen die Reviewer denn sonst mit einer von Nv lang und breit angekündigten Karte machen? Ignorieren? Das können sich die Reviewer im Hinblick auf zukünftige Tests sicher nicht leisten. Schönreden? Ahäm ...
Nv scheint meiner Ansicht gerade eine mehr unglückliche als gekonnte Opferzeremonie für den Fermi darzubieten; erst die ganzen Performance-Karten weg (sicher aus Angst, die Preise könnten fallen und damit dem Fermi Kunden schon im vorweg abgraben) und jetzt die super-duper Low-End-Karte. Bin echt mal gespannt, was sich da noch so zusammenbraut.
S
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
wer hätte das vor ein paar monaten gedacht?
ziemlicher niedergang von nvidia zur zeit. wo soll man da anfangen?
im notebookbereich die marktführerschaft an ati verloren, keine weiterentwicklung der chipsätze mehr und wohl bald völliger zusammenbruch des chipsatzmarktes.
high end markt erstmal aufgegeben und im einsteigerbereich kommen neue karten die eher nicht zu empfehlen sind.
hoffnung auf fermi.... und dann wieder das gleiche spiel, zu großer chip, zu teuer....
ziemlicher niedergang von nvidia zur zeit. wo soll man da anfangen?
im notebookbereich die marktführerschaft an ati verloren, keine weiterentwicklung der chipsätze mehr und wohl bald völliger zusammenbruch des chipsatzmarktes.
high end markt erstmal aufgegeben und im einsteigerbereich kommen neue karten die eher nicht zu empfehlen sind.
hoffnung auf fermi.... und dann wieder das gleiche spiel, zu großer chip, zu teuer....
Dass ATI mit kleineren kompakten GPUs bei der Fertigungsverkleinerung schneller sein kann, an das dachte ich immer schon.wer hätte das vor ein paar monaten gedacht?
Wobei ich an die Auswirkungen & Unterschied 180 mm² (HD5770) vs. 500 mm² (GTX 260/275) nicht dachte, die annähnernd gleiche Performance hatten.
Die Chipsatz-Entwicklung zeigte sich schon lange ab.
Nvidia brachte bei AMD-Chipsätzen ja nichts raus und mit Clakedale ist ja der Beginn von Nvidias Chipsatzs-Ende.
Man kann sagen, momentan ist AMD in der GPU-Abteilung in der Situation, in der Intel in der CPU-Abteilung ist.
Denn AMD kann wie Intel ihre GPUs (deutlich) früher in kleinerer Fertigung auf dem Markt werfen und in der Zeit hat Nvidia kaum Chancen und muss sich irgendwie über Wasser halten.
AMD kennt das zu gut mit ihren CPUs.
Auf alle Fälle könnte AMD wirklich den goldenen Apfel abschießen.
Denn mit der momentanen Dominanz werden Nvidias geschlossene Standards (Cuda & PhysX) etwas in Frage gestellt.
Vorallem dann, wenn Femi nicht in Dezember sondern in Februar kommt.
Es ist ein sehr ungünstiger Zeitpunkt.
Nvidia zeigt praktisch:" Hey, ihr seht, wenn ihr auf geschlossene Standards setzt, habt ihr auch Verspätungen, wenn sich die Grafikkarte verspätet".
Sehr ungünstig, dass OpenCL gerade jetzt eingeführt wurde, auch wenn DP momentan noch nicht läuft.
Zuletzt bearbeitet:
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
@ aylano:
wohl wahr.
http://www.pcgameshardware.de/aid,6...utzen-Direct-Compute-in-Windows-7/Tools/News/
auch in dem bereich geht amd in die offensive.
"AMD und Cyberlink kündigten nun an, ihre Zusammenarbeit in Sachen Videobeschleunigung zu verstärken. Anlässlich AMDs neuer, DirectX-11-fähigen Grafikkarten und Direct-Compute in Windows 7 soll die Videobearbeitung massiv beschleunigt werden."
wohl wahr.
http://www.pcgameshardware.de/aid,6...utzen-Direct-Compute-in-Windows-7/Tools/News/
auch in dem bereich geht amd in die offensive.
"AMD und Cyberlink kündigten nun an, ihre Zusammenarbeit in Sachen Videobeschleunigung zu verstärken. Anlässlich AMDs neuer, DirectX-11-fähigen Grafikkarten und Direct-Compute in Windows 7 soll die Videobearbeitung massiv beschleunigt werden."
Sliven
Lieutnant
- Mitglied seit
- 10.07.2008
- Beiträge
- 56
- Renomée
- 1
- Standort
- Dresden / Magdeburg
- Prozessor
- AMD Athlon 64 X2 4800+
- Mainboard
- MSI-K9AG Neo2 Digital
- Kühlung
- Boxed
- Speicher
- 4x1024 OCZ DDR2-800 Gold
- Grafikprozessor
- AMD/ATi HD3870 512Mb
- Display
- BEnQ FP91G X 19"
- HDD
- WD 180 GB intern | Seagate Freeagent Pro 750 Gb
- Optisches Laufwerk
- LG GSA 4167B
- Soundkarte
- Sound Blaster Audigy
- Gehäuse
- Raidmax Ninja
- Netzteil
- Sharkoon SilentStorm 480 W
- Betriebssystem
- XP SP2
- Webbrowser
- IE 7
Wen erinnert das ganze noch an Radeon 9700 vs GeForce FX 5800 ? ^.^
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Das sehe ich auch so ...... Man kann sagen, momentan ist AMD in der GPU-Abteilung in der Situation, in der Intel in der CPU-Abteilung ist.
Denn AMD kann wie Intel ihre GPUs (deutlich) früher in kleinerer Fertigung auf dem Markt werfen und in der Zeit hat Nvidia kaum Chancen und muss sich irgendwie über Wasser halten.
AMD kennt das zu gut mit ihren CPUs. ...
allerdings ist das paradoxe dabei, dass beide Firmen sich der Fertigungstechnik von TSMC bedienen. Da muss also noch mehr dahinter stecken, wenn AMD/ATI schneller am Markt mit frischen Shrinks drin sind.
Es kommt mir fast so vor, als wenn der kleine x86-Gigant zu Hause in den eigenen Fabs "vorkocht" und die Halbleiterhürden so intern früher nehmen können, als Nvidia, die ausschliesslich sich auf TSMC und fremde Entwicklerfirmen verlassen müssen.
Zugegeben das ist Spekulation, aber anders kann ich mir diesen "Fertigungs"-Vorsprung nicht erklären.
Das hatte sich ja schon seit dem "kleinen" R600 Refresh angedeutet. Die Einstiegs- (RV610) und Mittelklasse (RV630) wurde ja gleich 65 nm hergestellt und nicht mehr in 80 nm-Technik.
MFG Bobo(2009)
mmoses
Admiral Special
- Mitglied seit
- 20.10.2006
- Beiträge
- 1.899
- Renomée
- 43
- Standort
- Bembeltown
- Mein Laptop
- Lenovo Thinkpad Edge T450
- Prozessor
- AMD Ryzen5 - 1600
- Mainboard
- MSI B350 PC MATE
- Kühlung
- Original Bex Kühler
- Speicher
- 2 x ADATA DIMM 8 GB DDR4-2400
- Grafikprozessor
- Asus Radeon R7 250X
- Display
- 27" iiyama ProLite B2783QSU
- SSD
- Samsung SSD 840PRO 256GB
- HDD
- WD WD20EZRZ 2 TB
- Optisches Laufwerk
- BluRayBrenner PIONEER BDR-209DBK SATA
- Soundkarte
- onboard
- Gehäuse
- Enermax Chakra BS 25cm Fan ATX
- Netzteil
- Enermax EPR385AWT Pro82+ 385W ATX23
- Betriebssystem
- 64-Bit Linux Mint 19.2
- Webbrowser
- Frickelfuchs/opera
Wie gesagt : http://www.planet3dnow.de/vbulletin/showpost.php?p=4049501&postcount=31wer hätte das vor ein paar monaten gedacht?
ziemlicher niedergang von nvidia zur zeit. wo soll man da anfangen?
im notebookbereich die marktführerschaft an ati verloren, keine weiterentwicklung der chipsätze mehr und wohl bald völliger zusammenbruch des chipsatzmarktes.
high end markt erstmal aufgegeben und im einsteigerbereich kommen neue karten die eher nicht zu empfehlen sind.
hoffnung auf fermi.... und dann wieder das gleiche spiel, zu großer chip, zu teuer....
Aber die Situation bahnte sich schon länger an.... 20% mehr Leistung für doppelte Knete ? da bleibt die Zielgruppe überschaubar .... Fertigungsprobleme sind nun auch schon ein ganzes Weilchen Dauerthema bei NV.... Aber womöglich ist ja Fehmi äh Fermi ja doch der ganz dicke Bringer oder ihnen fällt sonst was ein um sich wieder zu rappeln
Mmoe
Lord Wotan
Commander
- Mitglied seit
- 03.05.2003
- Beiträge
- 154
- Renomée
- 1
- Standort
- Asgard
- Mein Laptop
- ASUS K93SV
- Prozessor
- INTEL Core i7 4790K@4,4Ghz
- Mainboard
- ASUS Sabertooth Z97 Mark S@UEFI 2702 mit Fastboot u. Secuceboot
- Kühlung
- CM Seidon 120M Wasserkühler mit zwei Lüfter
- Speicher
- Corsair Vengeance 16GB Kit DDR3-1600 KIT (2x8GB)
- Grafikprozessor
- MSI GTX 1060 Armor 6GB OC plus Gainward Geforce GTX 750 als PhysX jeweils mit GOP Firmware
- Display
- Fujitsu B24W-7 LED und LG FLATRON W2242T
- SSD
- SSD 850 EVO 500GB
- HDD
- 3TB HDD
- Optisches Laufwerk
- LG BD-RE HB10LS30
- Soundkarte
- Creative Sound Blaster Zx
- Gehäuse
- Cooler Master HAF-X
- Netzteil
- Corsair HX1000W Power mit Kabelmanagement
- Betriebssystem
- Windows 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- Sidewinder X8 Mouse, Fritzbox 7390, Microsoft Surface pro 2/Win 10 pro 64bit, Microsoft Lumia 950XL
Ist die Palit (Retail) GT220 512MB/DDR3 als Zweitkarte zur reinen PhysX nutzung zu gebrauchen. Zum einen neben einer Palit GTX 260 Sonic 216 und in anderen PC neben einer MSI NVidia 8000GTX. Zur Zeit stecken in beiden neben der jeweiligen Grafikkarte, eine AGEIA BFG Phys-X Karte mit 128MB als PCI Karte.
Macht der Einsatz der Geforce GT 220 als reine PhysX Karte Sinn?
Macht der Einsatz der Geforce GT 220 als reine PhysX Karte Sinn?
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 521
- Antworten
- 0
- Aufrufe
- 719
- Antworten
- 0
- Aufrufe
- 543
- Antworten
- 0
- Aufrufe
- 561