App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
News NVIDIA launcht GeForce GTX 580
- Ersteller Dr@
- Erstellt am
Dr@
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Details zu meinem Laptop
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
<div class="newsfloatleft"><a href="http://www.planet3dnow.de/photoplog/index.php?n=10924"><img src="http://www.planet3dnow.de/photoplog/file.php?n=10924" border="0" alt="GeForce Logo"></a></div>NVIDIA launcht heute mit der GeForce GTX 580 bereits 7 Monate nach dem Marktstart seiner ersten DirectX-11-fähigen GPU den Nachfolger. Die neue High-End-Grafikkarte basiert auf der 3 Mrd. Transistoren schweren und 520 mm² großen GPU GF110, die der überarbeitete und optimierte Nachfolger des GF100 ist. Es handelt sich also beim GF110 um keine völlige Neuentwicklung. NVIDIA will sich stattdessen sämtliche Blöcke der GPU vorgenommen und vor allem auf der Transistorebene (Transistoren mit geringeren Leckströmen) und bei den Timings der einzelnen Funktionseinheiten stark optimiert haben. Herausgekommen ist ein Chip, der möglichst alle Schwächen des Vorgängers ausmerzen soll. Gegenüber der GeForce GTX 480 sind nun endlich sämtliche PolyMorph Engines und damit CUDA-Cores aktiviert. Dies soll zusammen mit den verbesserten Textureinheiten (full speed FP16) und höheren Taktraten für einen ordentlichen Performanceschub sorgen, ohne die Leistungsaufnahme weiter zu erhöhen. Genau genommen soll diese sogar leicht sinken. Dies gilt auch für den Idle-Betrieb, in dem die neuen Grafikkarten ca.31W verbrauchen und damit 20W weniger als der Vorgänger. Zudem will man auch den Verbrauch bei der Nutzung von mehreren Monitoren gleicher Auflösung und Bildwiederholrate reduziert haben.<p style="clear:left;">
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11686"><img src="http://www.planet3dnow.de/photoplog/images/54308/1_GTX480vsGTX580.png" border="1" alt="NVIDIA GeForce GTX 580"></a></center>
Damit die noch immer ziemlich hohen 244 Watt TDP auch bei angenehmer Geräuschkulisse weggekühlt werden können, entschied sich NVIDIA für eine wesentlich aufwändigere Kühllösung. Der verwendete Kühlkörper setzt auf ein Vapor Chamber, was der grüne Grafikgigant mit einem nicht näher benannten Partner speziell für diese Anwendung entwickelt hat. Durch diese Technologie soll die Wärme wesentlich schneller von der GPU abgeführt werden. Es handelt sich hierbei um keine völlig neue Technologie, sie wird aber erstmals in einem Referenz-Design einer NVIDIA-GeForce-Grafikkarte verwendet. Damit soll das nervige, viel zu laute Lüftergeräusch des Vorgängers der Vergangenheit angehören. Das Unternehmen verspricht einen leiseren Betrieb unter Last als bei der GeForce GTX 285. Um die Hardware vor dem Überhitzen und daraus resultierenden Schäden zu schützen, werden auf dem Board Mikrocontroller zur Überwachung der Stromversorgung verbaut. Wenn der Grafiktreiber den Start beispielsweise eines "Power-Virus" wie Furmark detektiert, wird die Taktfrequenz der GPU heruntergeregelt, sobald ein Verlassen der technischen Spezifikationen von den Mikrocontrollern gemeldet wird. Diese Kombination aus Software und Hardware soll sicherstellen, dass das Übertakten der Grafikkarte auch weiterhin problemlos möglich ist.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11687"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-16.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11688"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-08.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11689"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-09.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11690"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-10.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11692"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-11.png" border="1" alt="NVIDIA GeForce GTX 580"></a></center>
Auch wenn man zum Start wohl nur an handverlesene Hardwareseiten Samples verschickt hat, verspricht NVIDIA einen so genannten Hard Lauch. Es sollen also bereits heute NVIDIA GeForce GTX 580 in allen wichtigen Märkten breit verfügbar sein. In Europa liegt die aktuelle Preisvorstellung von NVIDIA bei 479 Euro. Die verhältnismäßig geringe Anzahl an Samples wird mit der beabsichtigten möglichst großen Geheimhaltung erklärt. In den kommenden Wochen sollen weitere Modelle der GeForce-500-Familie folgen. NVIDIA spricht sogar von einem vollständigen Line-up. Außerdem gab man zu Protokoll, dass man mit diesem Launch wieder voll im Zeitplan liege, was durchaus als Kampfansage an die Konkurrenz aus dem Hause AMD gewertet werden darf.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11691"><img src="http://www.planet3dnow.de/photoplog/file.php?n=11691&w=l" border="1" alt="NVIDIA GeForce GTX 580"></a></center>
<b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288709966">NVIDIA Inspector Tool 1.94</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1286802021">NVIDIA präsentiert GeForce GT 430</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288086943">Nvidia GeForce 260.99 WHQL Desktop- und Notebook-Grafiktreiber</a></li></ul>
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11686"><img src="http://www.planet3dnow.de/photoplog/images/54308/1_GTX480vsGTX580.png" border="1" alt="NVIDIA GeForce GTX 580"></a></center>
Damit die noch immer ziemlich hohen 244 Watt TDP auch bei angenehmer Geräuschkulisse weggekühlt werden können, entschied sich NVIDIA für eine wesentlich aufwändigere Kühllösung. Der verwendete Kühlkörper setzt auf ein Vapor Chamber, was der grüne Grafikgigant mit einem nicht näher benannten Partner speziell für diese Anwendung entwickelt hat. Durch diese Technologie soll die Wärme wesentlich schneller von der GPU abgeführt werden. Es handelt sich hierbei um keine völlig neue Technologie, sie wird aber erstmals in einem Referenz-Design einer NVIDIA-GeForce-Grafikkarte verwendet. Damit soll das nervige, viel zu laute Lüftergeräusch des Vorgängers der Vergangenheit angehören. Das Unternehmen verspricht einen leiseren Betrieb unter Last als bei der GeForce GTX 285. Um die Hardware vor dem Überhitzen und daraus resultierenden Schäden zu schützen, werden auf dem Board Mikrocontroller zur Überwachung der Stromversorgung verbaut. Wenn der Grafiktreiber den Start beispielsweise eines "Power-Virus" wie Furmark detektiert, wird die Taktfrequenz der GPU heruntergeregelt, sobald ein Verlassen der technischen Spezifikationen von den Mikrocontrollern gemeldet wird. Diese Kombination aus Software und Hardware soll sicherstellen, dass das Übertakten der Grafikkarte auch weiterhin problemlos möglich ist.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11687"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-16.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11688"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-08.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11689"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-09.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11690"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-10.png" border="1" alt="NVIDIA GeForce GTX 580"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=11692"><img src="http://www.planet3dnow.de/photoplog/images/54308/small/1_GeForceGTX580-11.png" border="1" alt="NVIDIA GeForce GTX 580"></a></center>
Auch wenn man zum Start wohl nur an handverlesene Hardwareseiten Samples verschickt hat, verspricht NVIDIA einen so genannten Hard Lauch. Es sollen also bereits heute NVIDIA GeForce GTX 580 in allen wichtigen Märkten breit verfügbar sein. In Europa liegt die aktuelle Preisvorstellung von NVIDIA bei 479 Euro. Die verhältnismäßig geringe Anzahl an Samples wird mit der beabsichtigten möglichst großen Geheimhaltung erklärt. In den kommenden Wochen sollen weitere Modelle der GeForce-500-Familie folgen. NVIDIA spricht sogar von einem vollständigen Line-up. Außerdem gab man zu Protokoll, dass man mit diesem Launch wieder voll im Zeitplan liege, was durchaus als Kampfansage an die Konkurrenz aus dem Hause AMD gewertet werden darf.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=11691"><img src="http://www.planet3dnow.de/photoplog/file.php?n=11691&w=l" border="1" alt="NVIDIA GeForce GTX 580"></a></center>
<b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288709966">NVIDIA Inspector Tool 1.94</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1286802021">NVIDIA präsentiert GeForce GT 430</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288086943">Nvidia GeForce 260.99 WHQL Desktop- und Notebook-Grafiktreiber</a></li></ul>
Hi,
habe ein kleines logisches Problem. Obwohl der 580 die volle Ausbaustufe des 480 darstellt ist der Die kleiner geworden. Am Fertigungsverfahren kann es ja nicht liegen, oder hat Nvidia einen komplett neuen Kern entworfen ?
greetz roost
habe ein kleines logisches Problem. Obwohl der 580 die volle Ausbaustufe des 480 darstellt ist der Die kleiner geworden. Am Fertigungsverfahren kann es ja nicht liegen, oder hat Nvidia einen komplett neuen Kern entworfen ?
greetz roost
Cleric
Admiral Special
- Mitglied seit
- 08.01.2003
- Beiträge
- 1.087
- Renomée
- 110
Wenn man sich die ersten Reviews anschaut, dann hat AMD in Sachen Leistungskrone doch ganz schön was zu beißen. Man darf gespannt sein, wie gut AMD mit dem Cayman dagegen halten kann. Wenn es dann noch in diesem Jahr eine aufgebohrte GeForce 460 als 560 geben sollte, dann dürfte es für AMD nicht einfacher werden. Mit der Radeon 6850/70 hat man die Karten bereits auf den Tisch gelegt, und wirklich überzeugen tun sie nicht, vor allem bei AMDs neuen Filtertricks.
mibo
Grand Admiral Special
- Mitglied seit
- 05.01.2003
- Beiträge
- 2.297
- Renomée
- 65
- Standort
- Hannover
- Mein Laptop
- Lenovo P14s
- Details zu meinem Desktop
- Prozessor
- Ryzen 7800X3D
- Mainboard
- ASUS TUF A620M-PLUS
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x16GB DDR5 ECC
- Grafikprozessor
- AMD 6800XT
- Display
- HP X27i
- SSD
- Samsung 860EVO, 960EVO, WD 850X, KC3000 :-)
- Optisches Laufwerk
- DVD-Brenner :-)
- Netzteil
- BQ Dark Power 12 750W
- Betriebssystem
- Suse Tumbleweed / Win10 64Bit
- Webbrowser
- Firefox
Angeblich ist es ein optimierter GF100. Es wurden also ein paar Sachen geändert und dabei auch Transistoren eingespart. Nun heißt er GF110.
Die Kampfansage an AMD finde ich gut - ist gut für die Preise
Die Kampfansage an AMD finde ich gut - ist gut für die Preise

The Dark Force
Grand Admiral Special
- Mitglied seit
- 20.11.2003
- Beiträge
- 4.857
- Renomée
- 364
- Standort
- tiefstes Bayern
- Mein Laptop
- Samsung R505
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 5800X
- Mainboard
- ASUS ROG STRIX B550-F
- Kühlung
- Corsair H150i PRO
- Speicher
- 32GB Crucial Ballistix BL2K16G36C16U4R 3600 MHz
- Grafikprozessor
- ASUS ROG Strix GeForce GTX 1080
- Display
- LG 27GL 850 & Samsung SyncMaster 215TW, 21" Widescreen & LG OLED 77" C1
- SSD
- Samsung 840EVO 512GB & Crucial MX500 2TB
- HDD
- 1x Western Digital WD Red 3TB
- Optisches Laufwerk
- Samsung SH-S 203; LG CH08LS10
- Soundkarte
- onboard
- Gehäuse
- CoolerMaster HAF932
- Netzteil
- BeQuiet Dark Power Pro 11 750W
- Tastatur
- Logitech G15
- Maus
- Logitech G400s
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
http://geizhals.at/deutschland/?cat=gra16_512&xf=653_nVIDIA~1439_GTX+580
Anscheinend sogar lieferbar...
Also, wer bestellt eine zum testen?
Anscheinend sogar lieferbar...
Also, wer bestellt eine zum testen?

Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Schon interessant zu sehen wie Fermi eigentlich von Anfang an her gedacht war... so ganz freiwillig war die Einbremsung damals ja nicht.
Interessant auch, dass die GTX 580 in etwas gleichaufliegt mit der Radeon 5970 (Performance -, Stromverbrauch o, Lautstärke +). Aber natürlich hat sie einen deutlichen Vorteil, dass sie als Single-GPU-Karte nicht das Problem mit den Micro-Rucklern hat.
Dennoch hat AMD dadurch wenigstens ein bisschen was dagegenzusetzen, auch wenn es mit einer Dual-GPU suboptimal ist.
Interessant auch, dass die GTX 580 in etwas gleichaufliegt mit der Radeon 5970 (Performance -, Stromverbrauch o, Lautstärke +). Aber natürlich hat sie einen deutlichen Vorteil, dass sie als Single-GPU-Karte nicht das Problem mit den Micro-Rucklern hat.
Dennoch hat AMD dadurch wenigstens ein bisschen was dagegenzusetzen, auch wenn es mit einer Dual-GPU suboptimal ist.
rasmus
Admiral Special
- Mitglied seit
- 07.07.2008
- Beiträge
- 1.191
- Renomée
- 47
- Mein Laptop
- Notebook, was ist das?
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 3600
- Mainboard
- MSI B450M PRO-VDH MAX
- Kühlung
- Luft
- Speicher
- 32 GB Gskill Ripjaws
- Grafikprozessor
- Nvidia 3070 ti FE
- Display
- Asus PB278Q 27" 2560*1440
- SSD
- Ja
- HDD
- auch
- Optisches Laufwerk
- ja
- Soundkarte
- onboard
- Gehäuse
- irgendwas mit glas
- Netzteil
- thermaltake toughpower pf1 750W
- Maus
- Rat 9
- Betriebssystem
- Win 7 64bit, Win 10 64 bit
- Webbrowser
- Firefox
- Verschiedenes
- http://valid.canardpc.com/show_oc.php?id=628058
Ich darf mal lachen? Abgesehen davon, daß es zweifellos eine schöne Karte ist, ist doch die Aussage bezüglich des Zeitplans ein Witz. Was jetzt kommt, ist doch im Ergebnis das, was die 480 sein sollte. Falls sich noch jemand erinnert... damals, als Enrico Fermi 1938... naja jedenfalls gefühlt ;p um die Zeit herum
Aber gut für die Preise und den technischen Fortschritt ist die wiedererstarkte Konkurrenz jedenfalls.

Aber gut für die Preise und den technischen Fortschritt ist die wiedererstarkte Konkurrenz jedenfalls.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Details zu meinem Desktop
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Das die verbesserte video engine des gf104 fehlt hätte man noch erwähnen können. Es ist schlussendlich nichts weiter als ein gf100 in voll ausbau und mit ohne horrenden leckströmen.
Ich schätze es dürfte für AMD kein unlösbares problem sein mit der 6970 gleich zu ziehen.Und wenn nicht, auch egal. Sind ja auch nicht durch die bank 20% mehrleistung im vergleich zur 480. Das performance slide von nvidia ist ja wie üblich fürn arsch. Da nehme ich doch eher die zahlen die heise pubiliziert hat. Da sind zwischen der 580 und 5870 seltsamerweise keine 80% sondern derer nur 23%...
Ich schätze es dürfte für AMD kein unlösbares problem sein mit der 6970 gleich zu ziehen.Und wenn nicht, auch egal. Sind ja auch nicht durch die bank 20% mehrleistung im vergleich zur 480. Das performance slide von nvidia ist ja wie üblich fürn arsch. Da nehme ich doch eher die zahlen die heise pubiliziert hat. Da sind zwischen der 580 und 5870 seltsamerweise keine 80% sondern derer nur 23%...
Ist eigentlich genau das, was man erwartet hat. Darum reißt mich das Ganze jetzt nicht gerade vom Hocker. Allerdings bin ich nun noch gespannter auf die Antwort seitens AMD. Da wird sich wohl zeigen wie weit voraus der fermi wirklich war.
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?
Ansonsten könnten das die Tage gute Zeiten für nen Graka-Neukauf werden. Vor gut 4 Wochen habe ich noch mit der 5830 geliebäugelt. Mittlerweile bekommt man für n paar €s mehr ne 5850. Und selbst die 5870 kostet keine Unsummen mehr. Wenn ich nun sehe, daß die 580 schon für 430€ zu haben ist und AMD da deutlich drunter bleiben sollte/muß (gehe nicht davon aus, daß die 6970 die 580 knackt), dann könnte das was werden, die 5870 gibts ja schon jetzt ab 249€. Ne 5850 für 170€, da wäre ich bei *Händereib*
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?
Ansonsten könnten das die Tage gute Zeiten für nen Graka-Neukauf werden. Vor gut 4 Wochen habe ich noch mit der 5830 geliebäugelt. Mittlerweile bekommt man für n paar €s mehr ne 5850. Und selbst die 5870 kostet keine Unsummen mehr. Wenn ich nun sehe, daß die 580 schon für 430€ zu haben ist und AMD da deutlich drunter bleiben sollte/muß (gehe nicht davon aus, daß die 6970 die 580 knackt), dann könnte das was werden, die 5870 gibts ja schon jetzt ab 249€. Ne 5850 für 170€, da wäre ich bei *Händereib*
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Details zu meinem Desktop
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?
Die Erweiterungen die man für Tesla brauchte die aber auch bei der GTX480 schon nicht benutzt wurden wurden entfernt es gab noch einige Funktionseinheiten die der Tesla beim berechnen von CUDA Code helfen sollten sind ca 200mio Transistoren rausgeflogen

Zuletzt bearbeitet:
Dr@
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Details zu meinem Laptop
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Was mich aber interessieren würde und worüber ich nichts finden konnte, ist die Die-Größe. Fertigungsverfahren bleibt gleich, aber Chipgröße nimmt ab. Wo hat man da gespart?
Dann solltest du die News noch mal genau studieren.

Gibt es dazu ne Quelle?Die Erweiterungen die man für Tesla brauchte die aber auch bei der GTX480 schon nicht benutzt wurden wurden entfernt es gab noch einige Funktionseinheiten die der Tesla beim berechnen von CUDA Code helfen sollten sind ca 200mio Transistoren rausgeflogendadurch wurde der Chip natürlich auch etwas kleiner so das eigentlich mehr Chips auf einen Wafer passen sollten. Bei der Gf 100 im Ursprungsdesign handelt es sich ja um eine Entwicklung für Großcomputer und nicht für den Grafikmarkt die Verwendung als Geforce wahr ja ehr dual use... die GF110 ist jetzt auf den Grafikbereich Optimiert...
Davon habe ich offiziell nichts gehört. ECC ist z.B. noch drin.
Was soll denn genau rausgeflogen sein?
@ Fusseltuch
Da hast du natürlich Recht! Das habe ich im Eifer des Gefechtes vergessen. In der Hinsicht hat sich nichts verändert. --> HD Streams werden nicht mit voller Qualität übertragen.
starrlight
Gesperrt
- Mitglied seit
- 13.05.2010
- Beiträge
- 1.221
- Renomée
- 30
Nightshift schrieb:Schon interessant zu sehen wie Fermi eigentlich von Anfang an her gedacht war... so ganz freiwillig war die Einbremsung damals ja nicht.
Interessant auch, dass die GTX 580 in etwas gleichaufliegt mit der Radeon 5970 (Performance -, Stromverbrauch o, Lautstärke +). Aber natürlich hat sie einen deutlichen Vorteil, dass sie als Single-GPU-Karte nicht das Problem mit den Micro-Rucklern hat.
Dennoch hat AMD dadurch wenigstens ein bisschen was dagegenzusetzen, auch wenn es mit einer Dual-GPU suboptimal ist.
Hi..
Bei Launch der 5970 hieß es von AMD dass man noch eine Art Plan B hätte wenn der Fermi doch etwas performanter wäre als sich dann herausgestellt hat. Ich nehme an, die Radeon 5970 ist eine gedrosselte wenig selektierte Variante zweier Radeon 5870, die man ebenfalls im Takt des Speichers etwas gebremst hat.
Soll heissen - 2 Dies auf einem PCB bieten für Enthusiasten noch ein enormes Übertaktungspotenzial - mehr als das mit einem einzigen Die möglich ist, da sich die Taktraten von zwei Karten addieren. Ich sehe Microruckler nicht als Nachteil/Vorteil. Im Crossfire Thread hier im Forum wurde dazu ja schon zu Genüge eingegangen. Ich halte das mehr für einen Masche einiger Hardwareseiten die mit polarisierenden News und Tests möglichst viele Klicks auf ihrer Seite ziehen wollen - und es gibt ja genügende Fanboys in den jerweiligen Lagern die das dann zum Anlass nehmen ihren Senf dazuzugebengeben....Nach meiner Einschätzung kann man Microruckler durchaus provozieren - mit speziellen Einstellungen bei bestimmten Games - einen Vorteil gegenüber langsameren Single GPU-Lösungen haben die Dualkarten aber meiner Meinung nach schön.
UNd ich nehme wiegesagt an, dass die Performance der Radeon 5970 bei durchaus möglichen Chiptakt: 2x 850MHz, Speichertakt: 2x 1200MHz •
http://geizhals.at/deutschland/a564968.html im Vergleich zu den Original Chiptakt: 2x 725MHz, Speichertakt: 2x 1000MHz - bzw. bei den 2x 1000 Mhz Chiptakt die Übertakter normalerweise anstreben bei Addierung von zwei Karten einen ganz gewaltigen Performanceschub im Vergleich zum Original liefern...Da wird wahrscheinlich auch eine GTX 580 ans Limit übertaktet bei weitem nicht mehr mitkommen, weil bei idealer Skalierung dass ja alleine knapp 30% *2 an Chiptaktplus sind...
Die Problematik bei Dualkarten sehe ich eher bei der Treiberunterstützung, bzw. den Profilen - andererseits ist es eigentlich auch ziemlich egal.
Zu Weihnachten wirds dann interessant wenn der Cayman als Single Chip Version anrückt - die zukünftigen Dualkarten von AMD werden ja vermutlich auf Basis des "Barts" gefertigt - der ja Pinkompatibel zur Radeon 5870 ist - und da erwarte ich nun nicht unbedingt eine wesentliche Verbesserung zur Radeon 5970 was die pure Spieleleistung angeht. Anderseits könnte auch eine in Takt reduzierte Dualkarte auf Cayman Basis in Entwicklung sein - ich glaubs aber eher nicht..
GTX 580 hat nach meiner Einschätzung aber aktuell durchaus Konkurrenz mit der Radeon 5970
Zuletzt bearbeitet:
Makso
Grand Admiral Special
- Mitglied seit
- 15.02.2006
- Beiträge
- 3.393
- Renomée
- 142
- Standort
- Österreich
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, POEM, Docking
- Lieblingsprojekt
- Folding@Home
- Folding@Home-Statistiken
- Mein Laptop
- Desktopsystem
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1400@3,8GHz
- Mainboard
- Asrock B350 Pro4
- Kühlung
- Scythe Mugan 5
- Speicher
- 2x4GB ADATA
- Grafikprozessor
- RX 550
- Display
- BenQ 21,5
- SSD
- Samsung 960Pro
- HDD
- 1TB WD
- Optisches Laufwerk
- LG schwarz
- Soundkarte
- AC 97
- Gehäuse
- NZXT Beta Evo
- Netzteil
- AXP SimplePower 630W
- Betriebssystem
- Win 10
- Webbrowser
- Chrome
. Mit der Radeon 6850/70 hat man die Karten bereits auf den Tisch gelegt, und wirklich überzeugen tun sie nicht, vor allem bei AMDs neuen Filtertricks.
Das ist die Mittelklasse! Also nicht High-End Klasse. Vorsicht
.
EDIT :
.
ich denke das AMD die Verzögerung der HD69XX absichtlich machen, um zu sehen wie die GTX580 ist. Die HD69xx soll ja mit der 4D Shader Architektur kommen und ich denke das sich das auf den Stromverbrauch Positiv auswirken wird.
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7900X3D
- Mainboard
- MSI X870E Carbon
- Kühlung
- Aquacomputer Custom
- Speicher
- 48GB Kit GSkill F5-7200J3646F24G (@6200Mhz)
- Grafikprozessor
- MSI Trio X 3090 (water cooled)
- Display
- Predator X27, Asus MQ270Q
- SSD
- SN770, 990Pro, ...
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 1050W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win11 Prof Workstation
der Verbrauch ist doch völlig egal.
Hauptsache das Teil ist schnell und man derzeitige Games auf "ABSOLUTEXTRAMEGA FULL DETAILS" spielen.
Hauptsache das Teil ist schnell und man derzeitige Games auf "ABSOLUTEXTRAMEGA FULL DETAILS" spielen.
Morrich
Vice Admiral Special
- Mitglied seit
- 25.01.2010
- Beiträge
- 525
- Renomée
- 1
So wirklich haut mich jetzt die Leistung der GTX580 nicht vom Hocker.
Gerade mal max. 40% schneller als eine HD5870.
Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?
Gerade mal max. 40% schneller als eine HD5870.
Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?
Sparky
Grand Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 2.003
- Renomée
- 280
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 64 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- ASUS Prime Radeon RX 9070 XT OC
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼600 MBit ▲60 MBit
So wirklich haut mich jetzt die Leistung der GTX580 nicht vom Hocker.
Gerade mal max. 40% schneller als eine HD5870.
Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?
nope, sehe ich zumindest genauso. Die 580 ist das was man eigentlich ursprünglich von Fermi erwartet hatte. NV verlangt für diesen "Refresh" wieder mal einen premium Preis (was ich persönlich ueberhaupt nicht einsehe - man hätte die 480 mit dem Release der 580 komplett einstampfen sollen). AMD hatte genügend Zeit um 5000er Serie gründlichst aufzupolieren, und das zeigen auch die recht gut gemachten 6800er Karten. Sollte AMD mit der 6900er in den meisten Benchies vorne liegen, und das erwarte ich, dann kommt nach langer Zeit wieder eine Radeon als Hauptkarte in Gehäuse.

die vorab im netz kursierenden benches der gf580 waren ja relativ akkurat. wenn die ebenso geleakten performance-daten zu den caymans ähnlich zutreffend sind, dann wird es für amd schwierig, die leistungskrone zurückzuerobern.Wenn AMD seine 6900er Karten nicht vollkommen in den Sand setzt, dann ist diese Marke doch eigentlich locker zu knacken, oder liege ich da falsch?
http://www.planet3dnow.de/vbulletin/showthread.php?t=387078
es ist noch gar nicht so lange her, da hatten viele nvidia ob der fermi-verspätung quasi beerdigt, hatte amd doch einen super großen vorsprung. von diesem vorsprung scheint inzwischen nicht mehr viel übrig zu sein.
warum auch nicht. wird ja niemand zum kauf gezwungen. und das ist mit sicherheit sinnvoller als amd's rumgeeiere beim launch der 58xx karten. erst billig anbieten, dann nicht liefern können und anschließend die preise anziehen.NV verlangt für diesen "Refresh" wieder mal einen premium Preis (was ich persönlich ueberhaupt nicht einsehe - man hätte die 480 mit dem Release der 580 komplett einstampfen sollen).
![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
technisch will ich das gar nicht mal so sehr bewerten, obwohl mich leistung und leistungsaufnahme nicht so recht vom hocker hauen, angesichts von amd's preisgestaltung sind die karten sicher für viele interessant. aber man kann ja wohl nicht darüber hinwegsehen, dass der launch für amd wieder mal komplett in die hose gegangen ist. vielerorts kritik an der namensgebung ... was aber noch schlimmer ist, dürften die neuerlichen "filtertricks" sein, mit denen amd aktuell negativ-schlagzeilen erntet.AMD hatte genügend Zeit um 5000er Serie gründlichst aufzupolieren, und das zeigen auch die recht gut gemachten 6800er Karten.
und wie schon hier im thread angesprochen, bei amd wissen wir in sachen mittelklasse mit der 68xx serie, woran wir in der nächsten zeit sind. sollte nvidias geforce 460/470 refresh ähnlich gut gelingen wie im falle der 580, dann wird amd es in der mittelklasse schwer haben.
und so ist amd innerhalb eines jahres wieder von nvidia eingeholt worden. kaum zu glauben, wo amd doch einen so großen vorsprung hatte.
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Details zu meinem Desktop
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
es ist noch gar nicht so lange her, da hatten viele nvidia ob der fermi-verspätung quasi beerdigt, hatte amd doch einen super großen vorsprung. von diesem vorsprung scheint inzwischen nicht mehr viel übrig zu sein.
Das ist doch in der Branche Standard. Andere Leute hatten AMD schon nach der HD2xxx beerdigt, da dort NVidia mit den GF8xxx weit vorn lagen. Das Wechselspiel kennen wir doch inzwischen.
Das es immer wieder Leute gibt die übertreiben und denken eine Firma wie AMD oder NV geht an einer nicht so guten Kartengeneration zu Grunde, ist auch bekannt.
Same procedure as every year...
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.261
- Renomée
- 548
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PrimeGrid@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 5950X @ ASRock Taichi X570 & Sapphire RX 7900 XTX Nitro+
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.50
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 8l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3200 CL22 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x Sapphire Radeon RX 7900XTX OC 24GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Die kommt ja sprichwörtlich pünktlich zum Weihnachtsgeschäft! 
Mal sehen ob ich eine abbekomme!
Die kann zumindest mal mein GTX285 SLi bei den 3DMark Vantage GPU Punkte schlagen (als Single Karte!)
Hier ein SLi Review @ Guru3D: http://www.guru3d.com/article/geforce-gtx-580-sli-review/
MfG

Mal sehen ob ich eine abbekomme!
Die kann zumindest mal mein GTX285 SLi bei den 3DMark Vantage GPU Punkte schlagen (als Single Karte!)
Hier ein SLi Review @ Guru3D: http://www.guru3d.com/article/geforce-gtx-580-sli-review/
MfG
mariahellwig
Grand Admiral Special
Warum ist nVidia eigentlich so knausrig mit Schnittstellen? Wenn man Glück hat bekommt man 2 DVI Ports.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.261
- Renomée
- 548
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PrimeGrid@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 5950X @ ASRock Taichi X570 & Sapphire RX 7900 XTX Nitro+
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.50
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 8l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3200 CL22 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x Sapphire Radeon RX 7900XTX OC 24GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@ mariahellwig
...weil die Masse damit auskommt?
(+ein HMDI Port ist zumindest auch dabei, bei der GTX580)
...weil die Masse damit auskommt?

(+ein HMDI Port ist zumindest auch dabei, bei der GTX580)
mariahellwig
Grand Admiral Special
es ist noch gar nicht so lange her, da hatten viele nvidia ob der fermi-verspätung quasi beerdigt, hatte amd doch einen super großen vorsprung. von diesem vorsprung scheint inzwischen nicht mehr viel übrig zu sein.
...
und so ist amd innerhalb eines jahres wieder von nvidia eingeholt worden. kaum zu glauben, wo amd doch einen so großen vorsprung hatte.
Sehe ich ähnlich. Lag allerdings nicht daran das AMD so gut, sondern das nVidia von der Rolle war. War aber auch klar das sie irgendwann wieder in die Spur kommen. Fermi war nicht schlecht, hatte eben nur ein paar Unzulänglichkeiten. Die hat man nun abgestellt.
Letztlich muss man AMD großen Respekt zollen. Sie leisten unglaubliches. Sie kämpfen an 2 Fronten und jeder der beiden Gegner ist größer als AMD.
@Windhund
Ein DisplayPort sollte schon drin sein. Und, die Masse braucht auch keine GTX 580
Zuletzt bearbeitet:
chemiker494
Captain Special
- Mitglied seit
- 15.08.2008
- Beiträge
- 229
- Renomée
- 12
- Standort
- Biel/Bienne - Schweiz
- Aktuelle Projekte
- QMC, Rosetta, Docking POEM
- Lieblingsprojekt
- Biochemie/Medizin
- Meine Systeme
- Athlon 64X2 5400 2.8GHz, Xeon (Nocona) 2.8GHz, Pentium 4 (Northwood) 2.8GHz
- Details zu meinem Desktop
- Prozessor
- AMD Athlon X2 5400+@2.8GHz
- Mainboard
- Asus M2A-VM-HDMI
- Kühlung
- Box
- Speicher
- 2x1GB KVR800D2N5K2/2G
- Grafikprozessor
- Radeon Xpress 1250
- Display
- 19" Philips 190P7ES
- HDD
- 320 GB Samsung F1
- Optisches Laufwerk
- LG DVD-Brenner20x
- Soundkarte
- Realtek Al889
- Gehäuse
- Asus V2A690G Barebone
- Netzteil
- 300W integriert
- Betriebssystem
- Xubuntu 8.04
- Webbrowser
- Firefox 3
Die Erweiterungen die man für Tesla brauchte die aber auch bei der GTX480 schon nicht benutzt wurden wurden entfernt es gab noch einige Funktionseinheiten die der Tesla beim berechnen von CUDA Code helfen sollten sind ca 200mio Transistoren rausgeflogendadurch wurde der Chip natürlich auch etwas kleiner so das eigentlich mehr Chips auf einen Wafer passen sollten. Bei der Gf 100 im Ursprungsdesign handelt es sich ja um eine Entwicklung für Großcomputer und nicht für den Grafikmarkt die Verwendung als Geforce wahr ja ehr dual use... die GF110 ist jetzt auf den Grafikbereich Optimiert.
Andernorts nennt man dies einfach "Ballast abwerfen..."
- Mitglied seit
- 18.11.2008
- Beiträge
- 11.416
- Renomée
- 727
- Standort
- 8685x <><
- Aktuelle Projekte
- Spinhenge; Orbit; Milkyway
- Lieblingsprojekt
- Orbit@home; Milkyway@home
- Meine Systeme
- Tuban, 3,8~ Ghz x6 /Turbo 4,095GHz 2x Radeon HD 5850@5870 CFx. // Rechner 2: 5900x B02 //3= 9850 /4 = Rasp
- BOINC-Statistiken
- Mein Desktopsystem
- 5900xt (bis 5,3Ghz Boost); 3900x (bis 4,66 Boots); Thuban 1090x(bis 4 GHz Turbo)
- Mein Laptop
- P-
- Details zu meinem Desktop
- Prozessor
- siehe oben. alles Lukü mit max Anzahl ausgesuchter sehr starker Lüfter. (Rechner 3 = R 9 3900x
- Mainboard
- Asus MSI b 550 Tomahawk/; M4A79Deluxe für Thuban / MSI b 550 Tomahawk für R 9
- Kühlung
- ausgesklügelte Luftkühlung mit starkem Airflow
- Speicher
- vollbelegung
- Grafikprozessor
- Midrange oc 12GB /& 8 GB / & 3GB
- Display
- 2x 22" |(Benq; LG) und 1x 23,6" Samsung TFTs Eyefinity +2x21" für die anderen Rechner
- SSD
- 3x
- HDD
- (Tower voll!)
- Optisches Laufwerk
- Asus SATA-DVD RW
- Soundkarte
- o.b.
- Gehäuse
- ANTEC Twelfehundred Bequiet u.a.
- Netzteil
- vorhanden überall
- Tastatur
- ja gibt es jes
- Maus
- ja
- Betriebssystem
- Win 7 V 64 / und alternative
- Webbrowser
- Opera &/ IEE64/ &Safari und alternative
- Verschiedenes
- Thuban: |V-CoreCPU =1,23- 1,47V Turbo//norm. VID= 1,45V System läuft mit 4 Upgrades seit 2008 stabil!
http://geizhals.at/deutschland/?cat=gra16_512&xf=653_nVIDIA~1439_GTX+580
Anscheinend sogar lieferbar...
Also, wer bestellt eine zum testen?![]()
Du !?

The Dark Force
Grand Admiral Special
- Mitglied seit
- 20.11.2003
- Beiträge
- 4.857
- Renomée
- 364
- Standort
- tiefstes Bayern
- Mein Laptop
- Samsung R505
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 5800X
- Mainboard
- ASUS ROG STRIX B550-F
- Kühlung
- Corsair H150i PRO
- Speicher
- 32GB Crucial Ballistix BL2K16G36C16U4R 3600 MHz
- Grafikprozessor
- ASUS ROG Strix GeForce GTX 1080
- Display
- LG 27GL 850 & Samsung SyncMaster 215TW, 21" Widescreen & LG OLED 77" C1
- SSD
- Samsung 840EVO 512GB & Crucial MX500 2TB
- HDD
- 1x Western Digital WD Red 3TB
- Optisches Laufwerk
- Samsung SH-S 203; LG CH08LS10
- Soundkarte
- onboard
- Gehäuse
- CoolerMaster HAF932
- Netzteil
- BeQuiet Dark Power Pro 11 750W
- Tastatur
- Logitech G15
- Maus
- Logitech G400s
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
Ähnliche Themen
- Antworten
- 556
- Aufrufe
- 11K
- Antworten
- 1
- Aufrufe
- 618
- Antworten
- 0
- Aufrufe
- 168
- Antworten
- 0
- Aufrufe
- 248
- Antworten
- 3
- Aufrufe
- 1K