App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
G70 Spekulationsthread
- Ersteller vosmic
- Erstellt am
MOson
Admiral Special
Anonymous schrieb:Hmmm..... eigentlich steht da nur, daß nVidia 'nen zweiten Stromanschluß
auf der neuen Karte verbauen will, was aber laut PCIe-Spezifikations wohl
nicht Standard ist. Also man mal höflich nachgefragt, ob sich der Standard
net eventuell aufbohren läßt.
Macht dann statt 1x75W via PCIe und 1x75W external halt 1x75W PCIe
und 2x75W external. Daß die Karte auch wirklich diese extra-75W zieht
ist nicht bewiesen. Ich geh sogar mal davon aus, daß der Extra-Anschluß
nur aus Stabilitätsgründen mit auf die Karte kommt. Lastverteilung halt.
Wird ja zB bei den DFI-Mainboards genauso gemacht, da hast' auch zwei
Extra-Powerstecker drauf, die du nicht belegen MUSST aber zur Lastverteilung
belegen solltest. Genauso wird's bei den neuen nVidia-Grakas sein.
-A
Seh ich genauso.
vosmic
Grand Admiral Special
- Mitglied seit
- 05.03.2004
- Beiträge
- 2.475
- Renomée
- 31
- Standort
- Bonn
- Mein Laptop
- Asus A8Jp
- Prozessor
- Core2 Duo
- Mainboard
- Gigabyte X35 DS4
- Kühlung
- Nexxxos
- Speicher
- 4 GB OCZ
- Grafikprozessor
- MSI HD 4870 1 GB
- Display
- Viewsonic VX922
- HDD
- 4x500GB Samsung
- Optisches Laufwerk
- PX-708A/PX-116A
- Soundkarte
- Creative
- Gehäuse
- CS 601
- Netzteil
- OCZ 550 Watt
- Betriebssystem
- Win 7
- Webbrowser
- Firefox
- Verschiedenes
- HTPC: Intel Dual Core; DVB-S2 HD; 2 GB OCZ; Plextor PlexWriter PX-B900A, Sapphire HD 3850, 1x 500GB
Nö, aber die sind ja auch pleite...eden schrieb:Da hast du recht, James Ryan.
Man denke an 3dfx, war deren Rampage etwa schon produktionfertig?
Ihr wisst schon wie grafikchips entwickelt werden?
In einem simulator wird der chip entworfen und es ist ziemlich sicher, dass nvidia schon einen wgf 2.0 konformen chip so weit fertig entworfen hat aber von der simulation bis zum lauffähigen stück silizium ist ein weiter weg.
Wenn man dann erstmal den 1. tape-out (erster lauffähiger prototyp) gepackt hat werden meistens noch bugs beseitigt oder ander optimierungen vorgenommen (wenn z. B. die geplanten taktraten nicht erreicht werden) und das dauert wieder seine zeit (z. B. beim nv30 über 1 jahr).
Und dann beginnt die massenproduktion.
Allein davon abgesehen ist es doch überhaupt nicht wirtschaftlich ständig neue archtitekturen rauszubringen. ATI und Nvidia haben auch angekündigt, das ihre entwicklungszyklen länger werden.
Btw. die Begründung für den zweiten pcie-stromanschluss könnte viel näher liegen... habt ihr euch schonmal den prototypen der dual 6800 Ultra von asus angeschaut?
In einem simulator wird der chip entworfen und es ist ziemlich sicher, dass nvidia schon einen wgf 2.0 konformen chip so weit fertig entworfen hat aber von der simulation bis zum lauffähigen stück silizium ist ein weiter weg.
Wenn man dann erstmal den 1. tape-out (erster lauffähiger prototyp) gepackt hat werden meistens noch bugs beseitigt oder ander optimierungen vorgenommen (wenn z. B. die geplanten taktraten nicht erreicht werden) und das dauert wieder seine zeit (z. B. beim nv30 über 1 jahr).
Und dann beginnt die massenproduktion.
Allein davon abgesehen ist es doch überhaupt nicht wirtschaftlich ständig neue archtitekturen rauszubringen. ATI und Nvidia haben auch angekündigt, das ihre entwicklungszyklen länger werden.
Btw. die Begründung für den zweiten pcie-stromanschluss könnte viel näher liegen... habt ihr euch schonmal den prototypen der dual 6800 Ultra von asus angeschaut?
Zuletzt bearbeitet:
xxmartin
Admiral Special
- Mitglied seit
- 15.08.2003
- Beiträge
- 1.979
- Renomée
- 490
- Prozessor
- AMD Opteron 170 (CCB1E 0550 VPMW) @ 3200 MHz @ 1.50V
- Mainboard
- DFI LANparty nF4 SLI-DR Expert
- Kühlung
- Alphacool NexXxoS XP powered by TITAN 1500
- Speicher
- 2 GB Original Infineon DDR400 CE-5 @ 266 MHz @ 3.0-3-2-8 1T
- Grafikprozessor
- 2x Pine XFX GeForce 7900 GTX Extreme Edition 1750 @ SLI
- Display
- Samsung SyncMaster 959NF
- HDD
- 4x Samsung SP1213C @ RAID-0
- Soundkarte
- Creative Sound Blaster X-Fi Fatal1ty FPS
- Gehäuse
- Chieftec Mesh BigTower (CA-01SL-SL-B)
- Netzteil
- Enermax Liberty 620W ATX 2.2 (ELT620AWT)
- Betriebssystem
- Windows XP SP2, Windows XP x64, SuSE 10.0 x86_64, LFS Linux 64-bit
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
FUAD!
MfG 8)
MfG 8)
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
alzen
Vice Admiral Special
- Mitglied seit
- 29.04.2004
- Beiträge
- 800
- Renomée
- 6
- Standort
- Luxemburg/Mersch
- Prozessor
- AMD Athlon XP-M2600+
- Mainboard
- DFI NForce2 Infinity
- Kühlung
- Zalman CNPS7000 Cu
- Speicher
- 2x512MB G.Skill PC600@200 2-2-2-11
- Display
- iiyama Vision Master Pro511 / 22" / 1600x1200 85Hz
- HDD
- WD Raptor 74GB / Seagate 250GB SATA2
- Soundkarte
- Creative Audigy2 ZS
- Netzteil
- Tagan 380W
- Betriebssystem
- WinXP Pro
Der Inquirer wechselt aber richtig schnell seine Meinung.xxmartin schrieb:
Vor kurzem hieß es noch der G70 wird ein Strom-fressendes Ungeheuer mit 225W, jetzt ist es auf einmal eine leicht zukühlende, also kühle und sparsame, GraKa
Hoffentlich gibs bald eine andere, verlässlichere Quelle als diese Gerüchteküche, das engl. Konkurrenzprodukt zur Bild Zeitung.
Ich hoffe aber mal, dass der Inq. mit diesem Gerücht ausnahmsweise mal richtig in die Kristallkugel geschaut hat, mir ist eine kühle Graka weitaus lieber als ein Hitzkopf.
mfg
alzen
G
gast0972
Guest
*auf richtige Hardware warten tu und solche "Infos" nicht weiter beachten werde*
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
p4z1f1st schrieb:
FUAD bedeutet, dass man solche Meldungen vom Inq getrost ignorieren kann. Warum FUAD? Guck auf den Authornamen oder lies mal im 3dcenter.de.
MfG 8)
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
der futtert auch schon zum frühstück spekulatius hab ich mal gelesen
mfg
mfg
vosmic
Grand Admiral Special
- Mitglied seit
- 05.03.2004
- Beiträge
- 2.475
- Renomée
- 31
- Standort
- Bonn
- Mein Laptop
- Asus A8Jp
- Prozessor
- Core2 Duo
- Mainboard
- Gigabyte X35 DS4
- Kühlung
- Nexxxos
- Speicher
- 4 GB OCZ
- Grafikprozessor
- MSI HD 4870 1 GB
- Display
- Viewsonic VX922
- HDD
- 4x500GB Samsung
- Optisches Laufwerk
- PX-708A/PX-116A
- Soundkarte
- Creative
- Gehäuse
- CS 601
- Netzteil
- OCZ 550 Watt
- Betriebssystem
- Win 7
- Webbrowser
- Firefox
- Verschiedenes
- HTPC: Intel Dual Core; DVB-S2 HD; 2 GB OCZ; Plextor PlexWriter PX-B900A, Sapphire HD 3850, 1x 500GB
Im ersten Moment habe ich gedacht es wäre eine böse Abkürzung. (F**K UP AND D** )James Ryan schrieb:FUAD bedeutet, dass man solche Meldungen vom Inq getrost ignorieren kann. Warum FUAD? Guck auf den Authornamen oder lies mal im 3dcenter.de.
MfG 8)
Da bin ich ja beruhigt, hab schon gedacht ich müsste meine Wakü abrüsten.
MfG
http://www.digitimes.com/news/a20050510A6026.html
hab da was entdeckt
hab da was entdeckt
Kamui
Grand Admiral Special
- Mitglied seit
- 14.09.2003
- Beiträge
- 3.991
- Renomée
- 16
- Standort
- Hessen
- Mein Laptop
- Apple MacBook ... Pro!
- Prozessor
- Intel Core2Duo P8400 (2x2,26 GHz)
- Mainboard
- kA
- Kühlung
- Was leises
- Speicher
- 1 x 1024 MB, 1 x 2048 MB DDR-3 Standard-RAM
- Grafikprozessor
- NVIDIA 9400M
- Display
- Intern 13,3"-LED-1280x800, extern 1680x1050- 20" Viewsonic VX2025WM (P-MVA)
- HDD
- Samsung M7, 500 GB, 5400rpm, extern 1 TB Trekstor maxi g.u
- Optisches Laufwerk
- Superdrive
- Soundkarte
- Apple-Standard / Teufel Concept C
- Gehäuse
- Apple Aluminium-Unibody
- Netzteil
- Apple 65 W
- Betriebssystem
- Mac OS X 10.6, in VM Windows 7 Professional
- Webbrowser
- Chrome. (Safari mit Glims)
- Verschiedenes
- Eine hervorragende Ergänzung zu meinem Palm Pre.
Bisher wurde die Dual-Chip-Idee ja nur von Relic und foenfriseur angesprochen- was spricht dagegen?
Wenn der G70 tatsächlich so sparsam () ist wie vom INQ beschrieben () wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)
Wenn der G70 tatsächlich so sparsam () ist wie vom INQ beschrieben () wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)
Ob das mit der doppelten Listung so stimmt sei mal dahingestellt .. das behauptet nvidia ja gerne und öfter ... aber es lohnt noch ein halbes oder ein Jährchen zu warten und sich dann eine hochgezüchtete Dual GPU 6800GT zu kaufen Und wenns die günstig gibt dann im SLI evtl oder änliches
Kamui
Grand Admiral Special
- Mitglied seit
- 14.09.2003
- Beiträge
- 3.991
- Renomée
- 16
- Standort
- Hessen
- Mein Laptop
- Apple MacBook ... Pro!
- Prozessor
- Intel Core2Duo P8400 (2x2,26 GHz)
- Mainboard
- kA
- Kühlung
- Was leises
- Speicher
- 1 x 1024 MB, 1 x 2048 MB DDR-3 Standard-RAM
- Grafikprozessor
- NVIDIA 9400M
- Display
- Intern 13,3"-LED-1280x800, extern 1680x1050- 20" Viewsonic VX2025WM (P-MVA)
- HDD
- Samsung M7, 500 GB, 5400rpm, extern 1 TB Trekstor maxi g.u
- Optisches Laufwerk
- Superdrive
- Soundkarte
- Apple-Standard / Teufel Concept C
- Gehäuse
- Apple Aluminium-Unibody
- Netzteil
- Apple 65 W
- Betriebssystem
- Mac OS X 10.6, in VM Windows 7 Professional
- Webbrowser
- Chrome. (Safari mit Glims)
- Verschiedenes
- Eine hervorragende Ergänzung zu meinem Palm Pre.
Naja, eben wegen diesen Zweifeln (die ich ja selber habe ) schrieb ich ja "teilweise" und "nahezu"
Aber ich gebe dir recht: Warten is nie schlecht. Beruhigt aus einer akzeptablen Distanz zusehen, und gucken, wie sich das ganze entwickelt...
(ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!)
Aber ich gebe dir recht: Warten is nie schlecht. Beruhigt aus einer akzeptablen Distanz zusehen, und gucken, wie sich das ganze entwickelt...
(ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!)
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Naja, der G70 wird eh erst Ende des Jahres richtig kaufbar sein, selbst wenn NVIDIA entsprechende Karten morgen vorstellen würde!
Also erstmal abwarten.
MfG 8)
Also erstmal abwarten.
MfG 8)
Kamui schrieb:Bisher wurde die Dual-Chip-Idee ja nur von Relic und foenfriseur angesprochen- was spricht dagegen?
Wenn der G70 tatsächlich so sparsam () ist wie vom INQ beschrieben () wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)
Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.
Kamui schrieb:ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!
Naja ich denke, dass sich die leistung zwischen mainstream (Otto-Normal Gamer) und dem Highendmarkt immer weiter auseinander klaffen wird. Zu geforce4 zeiten war der unterschied zwischen highend und mainstream (gf ti4200 -- gf ti4600) ein bischen Takt. Heute haben wir zwischen 6600gt und 6800ultra die doppelten pipelines, doppelt so breites speicherinterface (theoretisch also nahezu doppelte leistung).
Aber der highendmarkt bleibt nun mal der prestigeträchtigste.
Will ja keiner ein PowerVR Design kaufen[³dgamer] schrieb:irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Relic schrieb:Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.
Wird aktuell nicht so leicht gehen, da beide Karten das gleiche Bios haben müssen.
MfG 8)
Lutscher
Vice Admiral Special
- Mitglied seit
- 18.10.2004
- Beiträge
- 956
- Renomée
- 3
- Standort
- In der Nähe von Bremerhaven
- Mein Laptop
- Lenovo T430
- Prozessor
- Core i7 13700K
- Mainboard
- MSI Pro Z790-A Wifi
- Kühlung
- be quiet Pure Loop 2 FX
- Speicher
- GSkill Trident Z5 DDR6400 CL32
- Grafikprozessor
- MSI GeForce RTX 3080 12G
- Display
- ASUS PA32UCK
- SSD
- Samsung 990 Pro NVMe
- Soundkarte
- Creative AE9-PE
- Gehäuse
- Corsair AIR
- Netzteil
- be quiet Straight Power 11 1200W
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Internetanbindung
- ▼500 ▲100
xxmartin
Admiral Special
- Mitglied seit
- 15.08.2003
- Beiträge
- 1.979
- Renomée
- 490
- Prozessor
- AMD Opteron 170 (CCB1E 0550 VPMW) @ 3200 MHz @ 1.50V
- Mainboard
- DFI LANparty nF4 SLI-DR Expert
- Kühlung
- Alphacool NexXxoS XP powered by TITAN 1500
- Speicher
- 2 GB Original Infineon DDR400 CE-5 @ 266 MHz @ 3.0-3-2-8 1T
- Grafikprozessor
- 2x Pine XFX GeForce 7900 GTX Extreme Edition 1750 @ SLI
- Display
- Samsung SyncMaster 959NF
- HDD
- 4x Samsung SP1213C @ RAID-0
- Soundkarte
- Creative Sound Blaster X-Fi Fatal1ty FPS
- Gehäuse
- Chieftec Mesh BigTower (CA-01SL-SL-B)
- Netzteil
- Enermax Liberty 620W ATX 2.2 (ELT620AWT)
- Betriebssystem
- Windows XP SP2, Windows XP x64, SuSE 10.0 x86_64, LFS Linux 64-bit
GEIZIE11 schrieb:http://www.digitimes.com/news/a20050510A6026.html
hab da was entdeckt
Lutscher schrieb:Vielleicht interessiert euch das:
Klick
Fällt Dir da etwas auf.
G70 doppelte Performance der 6800er-Reihe = Kaufzwang ...
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
Relic schrieb:Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.
das würde ich nicht so sehen...bestes beispiel ist doch amd x2 oder nicht?? der hat doch auch nur eine verhältnismäßig geringe wärmeabfuhr und ist günstig. und besser wirds mit 65nm oder?
nur werden ati und nv sicher noch ein weilchen warten, bevor sie auch mit ( edit: )dualcores daherkommen...
mfg
Zuletzt bearbeitet:
foenfrisur schrieb:das würde ich nicht so sehen...bestes beispiel ist doch amd x2 oder nicht?? der hat doch auch nur eine verhältnismäßig geringe wärmeabfuhr und ist günstig. und besser wirds mit 65nm oder?
nur werden ati und nv sicher noch ein weilchen warten, bevor sie auch mit dualchips daherkommen...
Wir reden hier von 2 verschiedenen sachen.
Du redest von dualcore und ich von dem hier im thread aufgeworfenen dualchip.
Dualchip brauchst du auf dem PCB 2xStromversorgungen, 2xLeitungen für Speicheranbindungen, 2xeffektivere Kühlung als 1 chip da doppelte abwärme, was das gesamte design nicht grade zu einem zuckerschlecken werden lässt. Seht euch einfach mal Bilder von der Dualchip 6800GT von Asus an (riesiges PCB, riesiger Kühler, ich will nicht wissen, was die wiegt). Und Asus hatte die karte als dual 6800 Ultra angekündigt, was sie jetzt doch nicht geworden ist und jetzt dürft ihr raten warum.
Dualcore von AMD ist eine ganz andere sache. Es sind (vereinfacht gesagt) 2 cores auf einem package, die sich aber das gleiche Speicherinterface teilen und mit der normalen Stromversorgung zu recht kommen. Mit der Wärmeabfuhr hat AMD insofern keine Porbleme, da die singlecore A64 schon sehr genügsam sind und so auch zu 2. nicht wirkliche kühlprobleme aufwerfen. Ausserdem ist eine CPU im vergleich zu einer Graka durch die Lage im Gehäuse auch sehr viel einfacher zu kühlen.
Dualcore bei Grafikchips ist insofern noch zukunftsmusik, da man 1. ein 512bit Speicherinterface bräuchte um beide chips mit genügend texturdaten füttern zu können, was aber noch viel zu teuer für den massenmarkt (preis <500€) wäre und 2. die heutigen Grafikchips schon an der thermischen grenze zu dem arbeiten, was sich mit vernünftigen (normalen, relativ kostengünstigen und nicht 70db lauten) mitteln abführen lässt. Wie willst du nun das doppelte davon auf immernoch relativ kleiner fläche wegbekommen?
Da der G70 (höchst wahrscheinlich) keine neues Design, sondern ein refresh chip wird, darf man garantiert keine wunder von ihm in stromverbrauchs/wärmeabgabe sicht erwarten. Die einsparungen von dem wechsel in 110nm werden durch die zusätzlichen pipes ziemlich aufgefressen werden. Wie soll da eine dualcore variante gekühlt werden?
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 407
- Antworten
- 0
- Aufrufe
- 745
- Antworten
- 0
- Aufrufe
- 870
- Antworten
- 3
- Aufrufe
- 7K