App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News NVIDIA zeigt Fermi Architektur
- Ersteller Nero24
- Erstellt am
<div class="newsfloatleft"><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16486&stc=1&d=1254383564" border="0" height="90" alt=""></div> Wie angekündigt hat NVIDIA gestern (bzw. heute Nacht MESZ) auf der GPU Technology Conference in San Jose, Kalifornien, seine neue Fermi-Architektur alias GT300 gezeigt, eine GPU die laut NVIDIA ein Supercomputer in eine GPU gepackt darstellen soll.
Die GPU namens GT300 wird in 40 nm bei TSMC gefertigt. Der Chip besitzt nicht weniger als 3 Milliarden Transistoren. 16 Shader-Cluster kümmern sich um die Berechnungen, wobei jeder Shader-Cluster aus je 32 Kernen besteht, die NVIDIA nun CUDA-Cores nennt. Der Chip ist auf 6-Channel GDDR5-Speicher ausgelegt, was unter dem Strich eine 384-Bit Anbindung ergibt. Bis zu 6 GB VRAM sollen den Karten zur Verfügung stehen. Zusätzlich können die Kerne auf insgesamt 1 MB L1-Cache (in 16 KB Häppchen unterteilt) und 768 KB L2-Cache (unified) zurückgreifen. Die Double Precision Leistung soll sich verachtfacht haben. Zudem soll Fermi nativ unterstützen: C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 und OpenGL 3.2. ECC für die Caches und Context Switching zwischen GPU Applications sind ebenfalls an Bord. Damit erhält der Fermi viele Features, die bisher eher in CPU denn in GPUs zu finden waren mit dem Ziel, den prinzipbedingt enormen Durchsatz einer GPU mit der Flexibilität und dem universellen Funktionsumfang einer CPU zu kombinieren. NVIDIA geht damit den ungekehrten Weg Intels, die mit dem <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1215259287">Larrabee</a> bekanntlich klassische CPU-Kerne GPU-fähig bekommen wollen.
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16482&stc=1&d=1254383451" border="0" alt=""><br>Das mächtige Die einer Fermi GPU</center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16481&stc=1&d=1254383451" border="0" alt=""><br>Die zahlreichen Kerne sind in Cluster zusammen gefasst um Lokalitäten von Speicherzugriffen besser nutzen zu können.</center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16483&stc=1&d=1254383451" border="0" alt=""></center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16485&stc=1&d=1254383457" border="0" alt=""></center>
<center>Bildquellen: LegitReviews / NVIDIA</center>
Nur wann der GT300 nun letztendlich wirklich auf den Markt kommen wird, war noch nicht zu erfahren.
<b>Links zum Thema:</b><ul><li><a href="http://www.legitreviews.com/article/1100/1/">NVIDIA Announces CUDA GPU Architecture - Fermi</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=369183">NVIDIA Nexus: Erste integrierte CPU/GPU-Lösung für Microsoft Visual Studio</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1251536718">NVIDIA mit Vorabpräsentation des GT300 im September?</a></li></ul>
Die GPU namens GT300 wird in 40 nm bei TSMC gefertigt. Der Chip besitzt nicht weniger als 3 Milliarden Transistoren. 16 Shader-Cluster kümmern sich um die Berechnungen, wobei jeder Shader-Cluster aus je 32 Kernen besteht, die NVIDIA nun CUDA-Cores nennt. Der Chip ist auf 6-Channel GDDR5-Speicher ausgelegt, was unter dem Strich eine 384-Bit Anbindung ergibt. Bis zu 6 GB VRAM sollen den Karten zur Verfügung stehen. Zusätzlich können die Kerne auf insgesamt 1 MB L1-Cache (in 16 KB Häppchen unterteilt) und 768 KB L2-Cache (unified) zurückgreifen. Die Double Precision Leistung soll sich verachtfacht haben. Zudem soll Fermi nativ unterstützen: C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 und OpenGL 3.2. ECC für die Caches und Context Switching zwischen GPU Applications sind ebenfalls an Bord. Damit erhält der Fermi viele Features, die bisher eher in CPU denn in GPUs zu finden waren mit dem Ziel, den prinzipbedingt enormen Durchsatz einer GPU mit der Flexibilität und dem universellen Funktionsumfang einer CPU zu kombinieren. NVIDIA geht damit den ungekehrten Weg Intels, die mit dem <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1215259287">Larrabee</a> bekanntlich klassische CPU-Kerne GPU-fähig bekommen wollen.
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16482&stc=1&d=1254383451" border="0" alt=""><br>Das mächtige Die einer Fermi GPU</center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16481&stc=1&d=1254383451" border="0" alt=""><br>Die zahlreichen Kerne sind in Cluster zusammen gefasst um Lokalitäten von Speicherzugriffen besser nutzen zu können.</center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16483&stc=1&d=1254383451" border="0" alt=""></center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16485&stc=1&d=1254383457" border="0" alt=""></center>
<center>Bildquellen: LegitReviews / NVIDIA</center>
Nur wann der GT300 nun letztendlich wirklich auf den Markt kommen wird, war noch nicht zu erfahren.
<b>Links zum Thema:</b><ul><li><a href="http://www.legitreviews.com/article/1100/1/">NVIDIA Announces CUDA GPU Architecture - Fermi</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=369183">NVIDIA Nexus: Erste integrierte CPU/GPU-Lösung für Microsoft Visual Studio</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1251536718">NVIDIA mit Vorabpräsentation des GT300 im September?</a></li></ul>
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Hm, irgendwann kommt Nvidia an den Punkt, an dem sie ne x86-Lizenz brauchen werden. Die Frage ist nur wann?
Ansonsten wird das wohl ein echter Bulle. Anfang 2010
Ansonsten wird das wohl ein echter Bulle. Anfang 2010
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Wie es scheint, sieht sich nVidia nun aufgrund der positiven Revisionen zum ATi-RV870 dazu bewogen, Informationen über die 'neue' Architektur in die Welt zu lassen. Immerhin geht es auf Weihnachten zu und wer heute zur RV870 basierten Lösung greifen möchte, wird sich nun vielleicht noch etwas zurückhalten, um nVidias Sproß genauer in Augenschein zu nehmen.
Beeindruckend ist die Architektur bzgl. GPGPU-Lösungen. Ich bin gespannt, was 'Fermi' zu leisten imstande sein wird.
Auch wenn 'OpenCL' und 'CUDA' derzeit in aller Munde ist - wirklich allgemein brauchbar sind beide Lösungen ja noch immer nicht. 'CUDA' schon deshalb nicht, weil man auf Windows/Linux-Binärtreiber und Codegeneratoren angewiesen sowie auf nVidia-GPUs festgelegt ist, OpenCL deshalb nicht, weil es letztlich auch an Codegeneratoren und quelloffenen Treibern für GPGPU-unterstützende Graphikkarten mangelt.
Ich glaube, das interessiert hier wohl die wenigsten. Gespannt bin ich auf die Preisvorstellungen nVidias, die sich wohl sehr stark an der Leistungsfähigkeit des 'Fermi' im Vergleich zum RV870 orientieren werden.
Beeindruckend ist die Architektur bzgl. GPGPU-Lösungen. Ich bin gespannt, was 'Fermi' zu leisten imstande sein wird.
Auch wenn 'OpenCL' und 'CUDA' derzeit in aller Munde ist - wirklich allgemein brauchbar sind beide Lösungen ja noch immer nicht. 'CUDA' schon deshalb nicht, weil man auf Windows/Linux-Binärtreiber und Codegeneratoren angewiesen sowie auf nVidia-GPUs festgelegt ist, OpenCL deshalb nicht, weil es letztlich auch an Codegeneratoren und quelloffenen Treibern für GPGPU-unterstützende Graphikkarten mangelt.
Ich glaube, das interessiert hier wohl die wenigsten. Gespannt bin ich auf die Preisvorstellungen nVidias, die sich wohl sehr stark an der Leistungsfähigkeit des 'Fermi' im Vergleich zum RV870 orientieren werden.
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Einfach nur beeindruckend. Mit einer herkömmlichen GPU hat das ja nicht mehr viel zutun. Larrabee verkommt da ja richtig zur Witznummer und der R870 wirkt auf einmal altbacken. Aber sie sollen erstmal liefern und dann sehen wir weiter. Schöne bunte Präsentationen malen können auch andere.
Das wird wohl ein richtig fettes grünes Monster.
Das wird wohl ein richtig fettes grünes Monster.
Zuletzt bearbeitet:
Captn-Future
Moderation DC, P3DN Vize-Kommandant
- Mitglied seit
- 16.08.2004
- Beiträge
- 8.436
- Renomée
- 316
- Standort
- VIP Lounge
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC, Simap
- Lieblingsprojekt
- QMC
- Meine Systeme
- X4 940 BE
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 7 5800x
- Mainboard
- B550 Aorus Pro
- Kühlung
- bequiet Dark Rock 4
- Speicher
- 64 GB
- Grafikprozessor
- Radeon 6600xt
- Display
- HP ZR2440w 1920x1200
- SSD
- WD Black 2 TB
- HDD
- WD Blue 4 TB
- Optisches Laufwerk
- LG GSA-H10N
- Betriebssystem
- Windows 11
- Webbrowser
- FireFox
Hoffentlich als Grafikkarte und als Rechenknecht für diverse Anwendungen. H264 encoding dauert einfach viel zu lange. Bin mal auf den Stromverbrauch gespannt. 200 Watt werden es wohl werden.[P3D] Crazy_Chris;4043465 schrieb:Das wird wohl ein richtig fettes grünes Monster.
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Bei aller augenscheinlich technischer Überlegenheit bin ich doch weiterhin bissl vorsichtig. Mir kommt es auch eher so vor, als wenn NV sich durch den guten R800-Start gezwungen gefühlt hat, den Leuten wenigstens etwas zu zeigen.
Ganz sicher nicht aus einem "Überraschungsmoment"-Grund...
Klingt alles wunderbar, aber wie am Ende die Leistung pro Verbrauch aussehen (sowohl im normalen Grafikbereich, als auch im GPGPU-Bereich) wird, wird sich zeigen. Es würde mich zumindest extrem stark wundern, wenn dieses Monstrum weniger als 200Watt verbauchen würde.
Was aber mMn weniger von Belang wäre, WENN die Leistung dann entsprechend stimmt UND wenn im Idle der Verbrauch auch so vorbildlich gesenkt werden kann wie beim R800...dann sehe ich doch ein Problem auf ATI zukommen, so gut deren HD 58xx-Serie doch z.Zt. ist.
Ganz sicher nicht aus einem "Überraschungsmoment"-Grund...
Klingt alles wunderbar, aber wie am Ende die Leistung pro Verbrauch aussehen (sowohl im normalen Grafikbereich, als auch im GPGPU-Bereich) wird, wird sich zeigen. Es würde mich zumindest extrem stark wundern, wenn dieses Monstrum weniger als 200Watt verbauchen würde.
Was aber mMn weniger von Belang wäre, WENN die Leistung dann entsprechend stimmt UND wenn im Idle der Verbrauch auch so vorbildlich gesenkt werden kann wie beim R800...dann sehe ich doch ein Problem auf ATI zukommen, so gut deren HD 58xx-Serie doch z.Zt. ist.
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
Sehe ich nicht. Dann wird ATI wieder den Raum bis 250€ abdecken und NV alles darüber. Möchte nicht wissen wie die Yield des Chips aussieht. Und damit kann man dann nicht in nen "Preiskrieg" gehen.Was aber mMn weniger von Belang wäre, WENN die Leistung dann entsprechend stimmt UND wenn im Idle der Verbrauch auch so vorbildlich gesenkt werden kann wie beim R800...dann sehe ich doch ein Problem auf ATI zukommen, so gut deren HD 58xx-Serie doch z.Zt. ist.
Das Spitzenmodell soll 300W ziehen:Hoffentlich als Grafikkarte und als Rechenknecht für diverse Anwendungen. H264 encoding dauert einfach viel zu lange. Bin mal auf den Stromverbrauch gespannt. 200 Watt werden es wohl werden.
"Die von Huang präsentierte Karte besitzt immerhin je einen sechs- und einen achtpoligen Stromanschluss, sodass High-End-Fermi-Karten je nach Spezifikation bis zu 300 Watt verheizen könnten."
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Ja gut, das stimmt auch wieder...und ich habe den X2 von ATI vergessen...ein X2-Äquivalent von NV wäre wohl zu stromhungrig bei voller Leistung (gut, man hat z.Zt. noch keinerlei Angaben für den Verbrauch des Fermi bei Last, aber ich lege meine Hand für ins Feuer, dass es 200W+ sein werden, wenn der R800 schon 180W verbraucht...eher sogar 220W+. Und das 2x wäre jenseits von Gut und Böse)[MTB]JackTheRipper;4043484 schrieb:Sehe ich nicht. Dann wird ATI wieder den Raum bis 250€ abdecken und NV alles darüber. Möchte nicht wissen wie die Yield des Chips aussieht. Und damit kann man dann nicht in nen "Preiskrieg" gehen.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Naja, Larrabee ist auch eher ein Versuchsobjekt von Intel und nicht, worauf die ihr Geschäft stützen wollen, von daher muß es erstmal nur funktionieren, nicht gut sein.
Die gerade erschienenen Karten von AMD sind auch keine Konkurrenz für diesen Nvidia-Monsterchip, sie sind ja extra als Karten für den oberen Mainstream konzipiert. AMD hat Cypress ja absichtlich klein gehalten, man hätte auch einfach alles doppelt so groß machen können, aber das wäre wirtschaftlich unsinnig gewesen.
Nvidia dagegen hat geglaubt, sie kriegen einen so großen Chip hin. Anscheinend haben sie es tatsächlich hingekriegt, die Frage ist aber, ob er wirtschaftlich dimensioniert ist, d.h. können sie einen ausreichend hohen Stückpreis und ausreichend hohen Umsatz erzielen, um die (offensichtlich relativ hohen) Entwicklungs- und Fertigungskosten zu decken?
Für High-Performance-Anwendungen ist das bestimmt eine tolle Karte, die auch gerne was vierstelliges kosten darf, ich weiß nur nicht, wie groß der Markt dafür ist.
Wenn man aus der Architektur aber Gamerkarten machen will, dann zählt nur, wieviel FPS pro € man bekommt. Der ganze GPGPU-Kram dürfte dann nutzlos sein, wird aber trotzdem mitgeschleppt und macht den Chip teurer, ohne daß Nvidia dafür auch nennenswert mehr verlangen könnte. Zum Beispiel der Cache nimmt viel Raum ein, dürfte aber bei Spielen völlig nutzlos sein; kA, inwieweit sie den bei kleineren Karten komplett weglassen können, um Diefläche zu sparen.
Also für mich sieht es so aus, als würde Nvidia den professionellen Markt größtenteils vereinnahmen, im Spielebereich werden sie wahrscheinlich auch die schnellste Einzelchipkarte haben, aber wenn ich wetten sollte, wer in den nächsten 12 Monaten mit DX11-Karten mehr verdient, würde ich auf AMD tippen.
Die gerade erschienenen Karten von AMD sind auch keine Konkurrenz für diesen Nvidia-Monsterchip, sie sind ja extra als Karten für den oberen Mainstream konzipiert. AMD hat Cypress ja absichtlich klein gehalten, man hätte auch einfach alles doppelt so groß machen können, aber das wäre wirtschaftlich unsinnig gewesen.
Nvidia dagegen hat geglaubt, sie kriegen einen so großen Chip hin. Anscheinend haben sie es tatsächlich hingekriegt, die Frage ist aber, ob er wirtschaftlich dimensioniert ist, d.h. können sie einen ausreichend hohen Stückpreis und ausreichend hohen Umsatz erzielen, um die (offensichtlich relativ hohen) Entwicklungs- und Fertigungskosten zu decken?
Für High-Performance-Anwendungen ist das bestimmt eine tolle Karte, die auch gerne was vierstelliges kosten darf, ich weiß nur nicht, wie groß der Markt dafür ist.
Wenn man aus der Architektur aber Gamerkarten machen will, dann zählt nur, wieviel FPS pro € man bekommt. Der ganze GPGPU-Kram dürfte dann nutzlos sein, wird aber trotzdem mitgeschleppt und macht den Chip teurer, ohne daß Nvidia dafür auch nennenswert mehr verlangen könnte. Zum Beispiel der Cache nimmt viel Raum ein, dürfte aber bei Spielen völlig nutzlos sein; kA, inwieweit sie den bei kleineren Karten komplett weglassen können, um Diefläche zu sparen.
Also für mich sieht es so aus, als würde Nvidia den professionellen Markt größtenteils vereinnahmen, im Spielebereich werden sie wahrscheinlich auch die schnellste Einzelchipkarte haben, aber wenn ich wetten sollte, wer in den nächsten 12 Monaten mit DX11-Karten mehr verdient, würde ich auf AMD tippen.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
zielgruppe dürfte wohl die industrie sein. so in der art.
http://www.hartware.de/news_47698.html
persönlich brauch ich gpu computing absolut nicht. ich möcht ne preiswerte schnelle karte zum zocken.
mit pech wird das ding nix halbes und nix ganzes. bin mir nicht sicher, dass die grafikleistung so gut wird, wie viele denken.
frag mich auch, warum kein wort während der präsentation über die grafikperfomance gesagt wurde, sondern nur über gpu computing?
und gezeigt wurde auch nichts. bin mir noch net mal sicher, ob da wirklich n chip drin war.
http://www.hartware.de/news_47698.html
persönlich brauch ich gpu computing absolut nicht. ich möcht ne preiswerte schnelle karte zum zocken.
mit pech wird das ding nix halbes und nix ganzes. bin mir nicht sicher, dass die grafikleistung so gut wird, wie viele denken.
frag mich auch, warum kein wort während der präsentation über die grafikperfomance gesagt wurde, sondern nur über gpu computing?
und gezeigt wurde auch nichts. bin mir noch net mal sicher, ob da wirklich n chip drin war.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Du hast schon gesehen, dass eine Tesla und keine GeForce oder Quadro gezeigt wurde?
Deren Aufgabe ist nicht die Direct3D oder OpenGL Grafikbeschleunigung. Daher auch nur der einzelne Videoausgang.
PS: Schau mal auf Seite 2 bei Legitreview. Da hält der CEO einen GT300 Chip in die Kamera.
Deren Aufgabe ist nicht die Direct3D oder OpenGL Grafikbeschleunigung. Daher auch nur der einzelne Videoausgang.
PS: Schau mal auf Seite 2 bei Legitreview. Da hält der CEO einen GT300 Chip in die Kamera.
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
Wenn man sich das letzte Bild mal anschaut, auf dem nur ein DVI Anschluss zu sehen ist, dürfte die Karte wohl ausschließlich im GPGPU Bereich anzusiedeln oder noch deutlich im Entwicklungsstadium sein.
.
EDIT :
.
Ok, darauf hab ich nicht geachtet
.
EDIT :
.
Du hast schon gesehen, dass eine Tesla und keine GeForce oder Quadro gezeigt wurde?
Deren Aufgabe ist nicht die Direct3D oder OpenGL Grafikbeschleunigung. Daher auch nur der einzelne Videoausgang.
PS: Schau mal auf Seite 2 bei Legitreview. Da hält der CEO einen GT300 Chip in die Kamera.
Ok, darauf hab ich nicht geachtet
U
User002
Guest
Hoffentlich als Grafikkarte und als Rechenknecht für diverse Anwendungen. H264 encoding dauert einfach viel zu lange. Bin mal auf den Stromverbrauch gespannt. 200 Watt werden es wohl werden.
Hi..
mein Wunsch ist für um die 200-250€ eine Karte mit guter Spieleleistung bei 1920*1200 und zumindest rudimentärer Support für die wichtigsten Videoformate und Videoencoding unter Windows..
Zur Zeit rechnet der Phenom X4 bei mir durchschnittlich 20 Stunden H.264/X.264Stapelverarbeitung mehrer Dateien, bzw. per Script..
Aber mal eben schnell ein einzelnes H.264 Video aus dem Archiv in MPEG 2 zu encoden um es dann als DVD zu brennen, das geht leider nicht..
Obwohl die 4Cores des X4 gut ausgelastet werden, dauert es derzeit knapp ne Stunde, bis ich ein Video aus dem HD - Archiv auf einem DVD - Rohling gebannt habe..
Grüße!
rasmus
Admiral Special
- Mitglied seit
- 07.07.2008
- Beiträge
- 1.191
- Renomée
- 47
- Mein Laptop
- Notebook, was ist das?
- Prozessor
- AMD Ryzen 5 3600
- Mainboard
- MSI B450M PRO-VDH MAX
- Kühlung
- Luft
- Speicher
- 32 GB Gskill Ripjaws
- Grafikprozessor
- Nvidia 3070 ti FE
- Display
- Asus PB278Q 27" 2560*1440
- SSD
- Ja
- HDD
- auch
- Optisches Laufwerk
- ja
- Soundkarte
- onboard
- Gehäuse
- irgendwas mit glas
- Netzteil
- thermaltake toughpower pf1 750W
- Maus
- Rat 9
- Betriebssystem
- Win 7 64bit, Win 10 64 bit
- Webbrowser
- Firefox
- Verschiedenes
- http://valid.canardpc.com/show_oc.php?id=628058
Interessant wird es doch erst, wenn man ungefähre Werte des Verbrauchs und der Grafikleistung hat. GPGPU ist ja ganz schön aber doch ohne wirklichen Reiz für mich (natürlich ist es toll, so etwas zu unterstützen, wenn man die Zeit und den Strom opfert). Als Gamer, Briefeschreiber und Forenspammer finde ich das schwer einzuschätzen. Für mich wird sich wohl der Verbrauch im Verhältnis zu einer für mich akzeptablen Grafikleistung als relevant erweisen in Bezug auf die Entscheidung für die (eine) neue Grafikkarte.
Naja, so ein Monster brauchen nicht viele- mal sehen, was die kleineren Karten können, verbrauchen und _kosten_.
Neuerdings schaltet nvidia Physx ja beim erkennen eines ATI- Grafiktreibers komplett ab- das gepaart mit TWIMTBP- Physx- (Geld aus dem Koffer- )Spielen sichert ja schon einen gewissen Grundumsatz.
Neuerdings schaltet nvidia Physx ja beim erkennen eines ATI- Grafiktreibers komplett ab- das gepaart mit TWIMTBP- Physx- (Geld aus dem Koffer- )Spielen sichert ja schon einen gewissen Grundumsatz.
Beerman
Commodore Special
- Mitglied seit
- 23.09.2003
- Beiträge
- 470
- Renomée
- 7
Ja gut, das stimmt auch wieder...und ich habe den X2 von ATI vergessen...ein X2-Äquivalent von NV wäre wohl zu stromhungrig bei voller Leistung (gut, man hat z.Zt. noch keinerlei Angaben für den Verbrauch des Fermi bei Last, aber ich lege meine Hand für ins Feuer, dass es 200W+ sein werden, wenn der R800 schon 180W verbraucht...eher sogar 220W+. Und das 2x wäre jenseits von Gut und Böse)
Interessant wird es doch erst, wenn man ungefähre Werte des Verbrauchs und der Grafikleistung hat.
legitreviews.com schreibt dazu:
NVIDIA said that the card wouldn't consume any more power than NVIDIA's current GPU offering, which is a huge bonus.
Ist nur die Frage welches aktuelle Modell gemeint ist... (Evtl. eine GTX295.. )
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Legitreview schreiben doch dazu, dass sie nur eine einzelnen 6-Pin PEG Strombuchse hat. Das sieht man auch auf dem Bild mit dem Prototyp.Ist nur die Frage welches aktuelle Modell gemeint ist...
Demnach kann die gezeigte Tesla Karte nicht mehr als 150 Watt aufnehmen. Vermutlich bleibt man zur Sicherheit sogar deutlich darunter.Legitreview schrieb:....and a 6-pin PCI Express power connector on the top of the card for external power.
Bei den GeForce Ablegern soll es anders aussehen. Da hat nVidia neben dem 6-Pin noch einen 8-Pin PEG Stromanschluss vorgesehen.
Zuletzt bearbeitet:
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
also ich sehe bei der Tesla-Karte einen 6 und einen 8 Pin Stecker:
ältere Produkte haben die gleiche Anordnung der Stecker:
ältere Produkte haben die gleiche Anordnung der Stecker:
Zuletzt bearbeitet:
Hm, irgendwann kommt Nvidia an den Punkt, an dem sie ne x86-Lizenz brauchen werden. Die Frage ist nur wann?
Warum sollten sie die brauchen?
.
EDIT :
.
also ich sehe bei der Tesla-Karte einen 6 und einen 8 Pin Stecker:
Der 6 Pin ist für den Lüfter
Hmm, also es kommt mir so vor als ob nvidia jetzt das gleiche wie Ageia macht, nur, dass nvidia besser vermarkten kann.
Bei Ageias Physx Karten war ja auch schon ordentlich Rechenleistung da- nur konnte keine Grafikkarte die ganzen Partikel usw. so schnell darstellen- nvidia will das wohl jetzt unter einen Hut bringen.
Naja, mal sehen, ob sich die Chips nicht wieder partiell selbst ablöten...
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
?
Blick ich jetzt nicht!
Wo ist welcher Anschluss ?
Für den Lüfter? häääää Witz? Verarschung?
Wo ist der "6-pin PCI Express power connector on the top of the card for external power." ?
Wo ist bei denen "on the top of the card"?
Blick ich jetzt nicht!
Wo ist welcher Anschluss ?
Für den Lüfter? häääää Witz? Verarschung?
Wo ist der "6-pin PCI Express power connector on the top of the card for external power." ?
Wo ist bei denen "on the top of the card"?
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Als Konsument sollst du CUDA auch nur mittelbar nutzen. CUDA ist nicht Selbstzweck.... Auch wenn 'OpenCL' und 'CUDA' derzeit in aller Munde ist - wirklich allgemein brauchbar sind beide Lösungen ja noch immer nicht. 'CUDA' schon deshalb nicht, weil man auf Windows/Linux-Binärtreiber und Codegeneratoren angewiesen sowie auf nVidia-GPUs festgelegt ist ...
Eine Reihe von Softwareschmieden hat sich darauf eingelassen (Adobe in de CS4-Suite), Arcsoft (Multimedia), Cyberlink und dann natürlich ausgesprochene Profiprogramme aus dem CGI- und CAD/CAM-Bereich.
Manchmal können die Profis "Module" dazukaufen", damit der Kunde die GPGPU-Fähigkeiten über CUDA nutzen kann. Theoretisch sind solche modularen Geschäftsmodelle für GPGPU-Computing auch mit OpenCL denkbar. Der Witz ist, CUDA ist am Markt, während OpenCL und Microsofts Direct Compute noch ziemlich am Anfang stehen.
Was die Tesla-Karten angeht. Das ist reines Produktivwerkzeug. In den letzten Jahren erkämpfte sich der grüne Grafikgigant eine fast monopolartige Vorherrschaft im Grafik-Profibereich von GPU und GPGPU-Produkten (circa 90 Prozent Marktbeherrschung). Wer diese Karten als reine Numbercruncher verwendet, der braucht keine Grafikausgänge. Die Teslas kosten immer ein Stück weniger, als die Quadro-Modelle mit ansonsten gleicher Speicher und Chipbestückung.
MFG Bobo(2009)
Zuletzt bearbeitet:
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Laut Heise müssen aber alle bisherigen CUDA Anwendungen für den GT300 neu kompiliert werden, weil die Breite der Integer Register vergrößert wurde.Der Witz ist, CUDA ist am Markt, während OpenCL und Microsofts Compute Shader noch ziemlich am Anfang stehen.
Quelle: http://www.heise.de/newsticker/meldung/146158
Ich vermute Legitreview hat den 8-Pin Anschluss einfach "übersehen".Wo ist welcher Anschluss ?
Oder es waren mehrere Karten im Umlauf und bei ihrer war er verdeckt, weil die von ihnen abgelichtete Karte eine etwas andere Abdeckung zu haben scheint.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Wer bereit ist derartige Profikarten zu kaufen, der wird sich nicht davor scheuen die Software anzupassen.Laut Heise müssen aber alle bisherigen CUDA Anwendungen für den GT300 neu kompiliert werden, weil die Breite der Integer Register vergrößert wurde. ...
Wäre zudem sehr ungewöhnlich, wenn Nvidia an dieser Stelle keine neuen Kompiler zur Verfügung stellen würde, oder keinen Support leisten will bei Premium-Schmieden wie Adobe und ähnlichen Softwareschmieden. CUDA 3.0 ist ja parallel angekündigt worden, und das umfasst ja auch umfangreiche Performance-Tools.
MFG Bobo(2009)
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Im professionellen Umfeld sehe ich da auch keinerlei Hürden, aber bei den Endanwendern (dann mit GeForce) könnten das einige Hersteller nutzen kostenpflichte Updates an den Mann zu bringen.
Es wäre jedenfalls eine gute Gelegenheit und bei bestimmten Herstellern (ohne Namen zu nennen) könnte ich mir das durchaus vorstellen, dass man auf die Nachfolgeversion umsteigen muss.
Es wäre jedenfalls eine gute Gelegenheit und bei bestimmten Herstellern (ohne Namen zu nennen) könnte ich mir das durchaus vorstellen, dass man auf die Nachfolgeversion umsteigen muss.
Ähnliche Themen
- Antworten
- 73
- Aufrufe
- 4K
- Antworten
- 0
- Aufrufe
- 510
- Antworten
- 0
- Aufrufe
- 482