App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Details zum G70, Vorstellung am 21. Juni?
- Ersteller Toonfish
- Erstellt am
Toonfish
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 05.01.2002
- Beiträge
- 5.971
- Renomée
- 30
- Standort
- München
- Mein Laptop
- Lenovo/IBM ThinkPad X61
- Details zu meinem Laptop
- Prozessor
- Intel Core2 Duo T7100
- Speicher
- 2GB DDR2 PC5300
- Grafikprozessor
- Intel GMA X3100
- Display
- 22" Chimei CMV 222H
- HDD
- Hitachi Travelstar 5K160 80GB SATA
- Betriebssystem
- Microsoft Windows Vista Business
Vor einem Jahr wurde auf einer GeForce LAN-Party in San Francisco die GeForce 6 Serie offiziell von <a href="http://www.nvidia.com" TARGET="b">NVIDIA</a> vorgestellt. Diese Tradition fortführend sei eine Vorstellung der GeForce 7800er Serie für den 21. Juni geplant, so berichtet <a href="http://www.gamespot.com/news/2005/06/02/news_6126883.html" target="b">GameSpot</a>. NVIDIA-Partner, Analysten und Presseleute würden zu einem "Abend voller Unterhaltung mit evolutionären Technologien, scharfem 3D-Inhalt und aufregender Spieleaction durch die Enthüllung unserer Next-Generation GPU" geladen.<p>Das neue Flagschiff der Serie wird GeForce 7800 GTX heissen und über 512 MB Speicher verfügen. Der in 110 nm gefertigte Chip wird SLI unterstützen und sich laut <a href="http://www.tomshardware.com/hardnews/20050531_110037.html" TARGET="b">Tom's Hardware</a> leistungsmäßig "deutlich" vor der 6800 platzieren. Zusätzlich wird es noch eine GeForce 7800 und eine GeForce 7800 GT geben, über deren Leistungsfähigkeit noch keine Details bekannt sind. Die GTX Karte wird preislich wohl auf dem Anfangsniveau der 6800 liegen und in den USA 550-600 Dollar kosten.<p>Bei <a href="http://www.hardwarezone.com" TARGET="b">HardwareZone</a> will man schon ein Engeneering Sample in der Hand gehalten und eine Stromaufnahme von 150W gemessen haben. Im Gegensatz dazu steht die stromsparende 110 nm Fertigung, welche beim taiwanischen Halbleiterhersteller <a href="http://www.tsmc.com" target="b">TSMC</a> durchgeführt wird, sowie der zwar große, aber in Single-Slot realisierte Kühler, den man auf dem <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=2252861#post2252861">Bild</a> sehen kann.<p>Nachdem einige <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=all&id=1116430255">Spezifikationen</a> bereits bekannt sind, wird man wohl noch auf erste Benchmarkergebnisse warten müssen. Dem kanadischen Hauptkonkurrent ATI gelang es mit seiner neuen Crossfire-Technologie vor kurzem den 3DMark05-Rekord gerade eben zu brechen, da rüstet NVIDIA bereits für den Gegenschlag. Sollte die Leistungsaufnahme der neuen GeForce Karten sich entgegen erster Fauxpass-Meldungen in Grenzen halten müssen sich die Kanadier mit dem R520 beeilen, wenn sie nicht den Anschluss verpassen wollen.
Toonfish
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 05.01.2002
- Beiträge
- 5.971
- Renomée
- 30
- Standort
- München
- Mein Laptop
- Lenovo/IBM ThinkPad X61
- Details zu meinem Laptop
- Prozessor
- Intel Core2 Duo T7100
- Speicher
- 2GB DDR2 PC5300
- Grafikprozessor
- Intel GMA X3100
- Display
- 22" Chimei CMV 222H
- HDD
- Hitachi Travelstar 5K160 80GB SATA
- Betriebssystem
- Microsoft Windows Vista Business
<ul><img src="/news_images/G70030605.jpeg"></ul>
dualXPlosion
Lt. Commander
- Mitglied seit
- 15.02.2005
- Beiträge
- 104
- Renomée
- 2
wo bleibt das geschreie ? 150 WATT
dagegen sind IntelCPUs stromsparende leichtgewichte
dagegen sind IntelCPUs stromsparende leichtgewichte

mapel110
Fleet Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 306
- Renomée
- 1
Die 150 Watt sind Blödsinn, da braucht man gar nicht weiter diskutieren.
Wenn das 24 Pipe Gerücht stimmt, werden es wohl ca 50-60% mehr Performance. Ist schon okay nach der Performanceverdoppelung mit den Karten im letzten Jahr. Mehr ist kaum zu machen derzeit.
Wenn das 24 Pipe Gerücht stimmt, werden es wohl ca 50-60% mehr Performance. Ist schon okay nach der Performanceverdoppelung mit den Karten im letzten Jahr. Mehr ist kaum zu machen derzeit.
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Details zu meinem Desktop
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
zeigt mir die 130Watt meiner 6800Ultra, dann glaub ich die 150Watt 

Lutscher
Vice Admiral Special
- Mitglied seit
- 18.10.2004
- Beiträge
- 956
- Renomée
- 3
- Standort
- In der Nähe von Bremerhaven
- Mein Laptop
- Lenovo T430
- Details zu meinem Desktop
- Prozessor
- Core i7 13700K
- Mainboard
- MSI Pro Z790-A Wifi
- Kühlung
- be quiet Pure Loop 2 FX
- Speicher
- GSkill Trident Z5 DDR6400 CL32
- Grafikprozessor
- MSI GeForce RTX 3080 12G
- Display
- ASUS PA32UCK
- SSD
- Samsung 990 Pro NVMe
- Soundkarte
- Creative AE9-PE
- Gehäuse
- Corsair AIR
- Netzteil
- be quiet Straight Power 11 1200W
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Internetanbindung
- ▼500 ▲100
Vielleicht bringt Nvidia dann ja auch wieder ein gutes Midrange-Modell mit 12 Pipes für 200€.
,als Nachfolger für die erfolgreiche 6600GT.
150Watt Stromverbrauch?
Na wenn wenn sich da nicht jemand vermessen hat...
Bei der Kühlösung die auf den Bildern zu sehen ist glaub ich nicht daran oder sie ist hocheffektiv.

150Watt Stromverbrauch?

Na wenn wenn sich da nicht jemand vermessen hat...
![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
Bei der Kühlösung die auf den Bildern zu sehen ist glaub ich nicht daran oder sie ist hocheffektiv.

mit den 150w stimmt mit sicherheit nicht. schon allein deswegen, weil derpeg und ein stromstecker zwar 150w liefern könnten, aber nemals ein hersteller bis an die grenzen der spezifikationen geht. und der kühler deutet auch auf eine gesenkte leistungsaufnahme hin.
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Details zu meinem Desktop
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Diese 150W kommen irgendwie wohl daher das Nvidia ein 400W Netzteil für ein System mit nur einer Karte empfiehlt. Für ein SLI System sollte es ein 550W Netzteil sein.
Ich kann mir beim besten willen nicht vorstellen das Nvidia die Spezifikation ohne Tolleranz ausnutzen würde.
Es werden sicher nicht mehr als 100 Watt pro Karte werden.

Ich kann mir beim besten willen nicht vorstellen das Nvidia die Spezifikation ohne Tolleranz ausnutzen würde.

Es werden sicher nicht mehr als 100 Watt pro Karte werden.


HiddenGhost
Lieutnant
- Mitglied seit
- 02.10.2003
- Beiträge
- 57
- Renomée
- 0
*träüm* newsmeldung für den 22.06.05
Nvidia folgt dem erfolgreichen Beispiel amds und integriert automatische Stromsparmodi die in Phasen niedriger beanspruchung die leistungsaufnahme deutlich senken sollen. Dies, so Nvidia, geschehe durch gezieltes abschalten nichtbenötigter Chipareale und einer automatischen Seknung der Chipspannung, die einhergehe mit einer reduzierung des Taktes.
*/träum*
Nvidia folgt dem erfolgreichen Beispiel amds und integriert automatische Stromsparmodi die in Phasen niedriger beanspruchung die leistungsaufnahme deutlich senken sollen. Dies, so Nvidia, geschehe durch gezieltes abschalten nichtbenötigter Chipareale und einer automatischen Seknung der Chipspannung, die einhergehe mit einer reduzierung des Taktes.
*/träum*
SentinelBorg
Lt. Commander
- Mitglied seit
- 27.11.2001
- Beiträge
- 107
- Renomée
- 0
Das machen die Chips doch schon längt. Chiptakt kannst du für 2D- und 3D-Modus eh getrennt einstellen und bei Karten vieler Hersteller verringert sich auch die Spannung der GPU im 2D-Modus. Das die Pixel- und Vertexshader Einheiten im 2D-Modus nicht laufen, ist eh selbstverständlich.HiddenGhost schrieb:aus diesem Posting
*träüm* newsmeldung für den 22.06.05
Nvidia folgt dem erfolgreichen Beispiel amds und integriert automatische Stromsparmodi die in Phasen niedriger beanspruchung die leistungsaufnahme deutlich senken sollen. Dies, so Nvidia, geschehe durch gezieltes abschalten nichtbenötigter Chipareale und einer automatischen Seknung der Chipspannung, die einhergehe mit einer reduzierung des Taktes.
*/träum*
The_Borg
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.031
- Renomée
- 267
- Standort
- NRW
- Details zu meinem Desktop
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Wenn der kleine Kühler da 150W abführen sollte, dann würde der Plastikventilator ja schmelzen und raustropfen
Nein, das ist Unsinn. Ich schätze mal, die Karte wird trotz erhöhter Leistung auf etwa dem gleichen Niveau sein, das wäre ja schon ne deutliche, aber realistische Einsparung.

SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
cruger schrieb:schön zu sehen, daß nvidia immer mehr von alten 3dfx-produkten übernimmt.
wenn nvidia so weiter macht, dann dürfte spätestens die nächste generation in sachen LÄNGE zur voodoo5 5500 aufschließen![]()
ich sehe in der länge der karte kein problem, wer natürlich irgent nen billiges gammescase hat, muss damit rechnen das die karte irgentwo aneckt. =)
SKYNET schrieb:aus diesem Posting
ich sehe in der länge der karte kein problem, wer natürlich irgent nen billiges gammescase hat, muss damit rechnen das die karte irgentwo aneckt. =)
was hat das mit dem gehäuse zu tun ?
die voodoo5 5500 als beispiel war zu diversen mainboards inkompatibel, weil sie mit irgendwelchen bauteilen auf dem mobo kollidiert ist. hab ich selbst erleben dürfen, bei mir hat die karte seiner zeit ide-ports blockiert. und das war noch harmlos im vergleich zu anderen kombinationen, wo sich die karte erst gar nicht einbauen ließ.
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Details zu meinem Desktop
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
cruger schrieb:aus diesem Posting
was hat das mit dem gehäuse zu tun ?
die voodoo5 5500 als beispiel war zu diversen mainboards inkompatibel, weil sie mit irgendwelchen bauteilen auf dem mobo kollidiert ist. hab ich selbst erleben dürfen, bei mir hat die karte seiner zeit ide-ports blockiert. und das war noch harmlos im vergleich zu anderen kombinationen, wo sich die karte erst gar nicht einbauen ließ.
jedes moderneres Mainboard hat ein gutes Layout, was genau dieses Problem des "kollidierens" beseitigt....
p4z1f1st schrieb:aus diesem Posting
jedes moderneres Mainboard hat ein gutes Layout, was genau dieses Problem des "kollidierens" beseitigt....
wers glaubt !?

beispiel epox 9npa+

für g70 modelle vielleicht noch kein problem, aber eine karte mit ähnlicher länge wie eine voodoo5 5500 würde genau wie zu zeiten des kt133 die beiden ide-ports blockieren.
tporyk
Grand Admiral Special
- Mitglied seit
- 20.05.2004
- Beiträge
- 2.938
- Renomée
- 23
- Standort
- Hanau
- Mein Laptop
- ASUS F6S (T9300, 320GB, 3GB, 9300m, 13,3")
- Details zu meinem Desktop
- Prozessor
- Opteron 175 @ 2,42ghz (242*10)
- Mainboard
- DFI NF 4 Lanparty DR
- Speicher
- 4GB; G Skill PC 4000
- Grafikprozessor
- XFX 7900GT @ GTX-Takt
- Display
- FuSiemens 26" TFT
- HDD
- 160GB + 1TG Samsung S-ATA; 7200UPM
- Optisches Laufwerk
- LG GSA-4163
- Netzteil
- Targan 480W
- Betriebssystem
- Windows 7
- Webbrowser
- Firefox
- Verschiedenes
- very silent! :)
Dafür habe ich ein S-ATA raid @ PCI! 

SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
cruger schrieb:wers glaubt !?
beispiel epox 9npa+
![]()
für g70 modelle vielleicht noch kein problem, aber eine karte mit ähnlicher länge wie eine voodoo5 5500 würde genau wie zu zeiten des kt133 die beiden ide-ports blockieren.
wer epox kauft ist selber schuld.

SKYNET schrieb:
andere hersteller platzieren an der gleichen stelle gegenüber dem ersten peg-slot die sata-anschlüsse (z.b. gigabyte etc.), ist ab einer bestimmten länge der grafikkarte das gleiche problem in grün
![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
dieses problem besteht nur wenn man SATA2 nutzen will UND mehr als 2 platten hat. 
die SATA1 anschlüsse sind nämlich unten. =)

die SATA1 anschlüsse sind nämlich unten. =)
WEGA
Fleet Captain Special
- Mitglied seit
- 25.05.2003
- Beiträge
- 304
- Renomée
- 1
- Details zu meinem Desktop
- Prozessor
- i7-3770K @ 4.4GHz
- Mainboard
- Gigabyte Z77X-UD5H
- Speicher
- 8GB Kingston 1600MHz
- Grafikprozessor
- MSI GTX 980
- Display
- Asus PG278Q
- SSD
- 256GB Samsung 840 Pro
- Gehäuse
- PC-60FNWX
- Netzteil
- Be Quiet DPP 11 550W
- Betriebssystem
- Win7 Pro
und ich onboardkyropt schrieb:


Ich würd dem Kühler schon 100W zutrauen. Einerseits weis man die Drehzahl vom Lüfter net (ich erinnere da an die Geforce FX) und andererseits werden GPUs sowieso viel wärmer als CPUs, wodurch die Wärmeabfuhr erheblich einfacher geht. Und zum Schluss ist die GPU auch viel größer als eine CPU, was nochmals der Wärmeabfuhr zugute kommt. Dank der großen Recheneinheiten dürften HotSpots auch nicht so problematisch werden - zum Vergleich: Bei einer CPU werden vielleicht 90% der Wärme von 20% der Fläche erzeugt, bei einer GPU dagegen 80% der Wärme von 50% der Fläche (Phantasiewerte, auf die Relation kommt's an).
Das hängt größtenteils mit der Taktrate zusammen, und damit, dass eine GPU eigentlich nur ein überdimensionierter Rechenschieber ist (Recheneinheiten soweit das Auge reicht, jede läuft aber auf vergleichsweise niedrigem Takt -> macht wenig Wärme).
Letztendlich kann man also mit dem Kühler, der bei einer CPU für sagen wir 50W reicht, bei einer GPU wahrscheinlich schon 100W abführen, ohne die jeweils geltenden Betriebsbedingungen zu verlassen.
Das hängt größtenteils mit der Taktrate zusammen, und damit, dass eine GPU eigentlich nur ein überdimensionierter Rechenschieber ist (Recheneinheiten soweit das Auge reicht, jede läuft aber auf vergleichsweise niedrigem Takt -> macht wenig Wärme).
Letztendlich kann man also mit dem Kühler, der bei einer CPU für sagen wir 50W reicht, bei einer GPU wahrscheinlich schon 100W abführen, ohne die jeweils geltenden Betriebsbedingungen zu verlassen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 300
- Antworten
- 623
- Aufrufe
- 56K
- Antworten
- 0
- Aufrufe
- 541
- Antworten
- 1K
- Aufrufe
- 94K
- Antworten
- 0
- Aufrufe
- 450