App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GT300 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
So, hier kann weitergemacht werden...
Hier die Fortsetzung aus dem R800-Thread
@Dr@
Totale Spekulation, aber:
Wurde eigentlich der Name GT300 oder G300 auf der Konferrenz erwähnt oder war da nur von Fermi die Rede? (muss ich noch überprüfen, aber dafür haeb ich jetzt keine Zeit)
Denn theoretisch könnte es ja sein, dass man mit dem Fermi rein auf den GPGPU-Markt abzielt und einenzweiten Chip, der dann eben G300 heißt für Spieler hat, nämlich auf dem G200 basierend und um einiges abgespeckt.
Da man sich vom GPGPU große Marktanteile verspricht, wäre eine derartige Strategie eigentlich auch nicht verkehrt, denn der Fermi würde einfach zuviel Ballast mitschleppen, den ein Spieler nicht braucht.
@Dr@
Totale Spekulation, aber:
Wurde eigentlich der Name GT300 oder G300 auf der Konferrenz erwähnt oder war da nur von Fermi die Rede? (muss ich noch überprüfen, aber dafür haeb ich jetzt keine Zeit)
Denn theoretisch könnte es ja sein, dass man mit dem Fermi rein auf den GPGPU-Markt abzielt und einenzweiten Chip, der dann eben G300 heißt für Spieler hat, nämlich auf dem G200 basierend und um einiges abgespeckt.
Da man sich vom GPGPU große Marktanteile verspricht, wäre eine derartige Strategie eigentlich auch nicht verkehrt, denn der Fermi würde einfach zuviel Ballast mitschleppen, den ein Spieler nicht braucht.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
nun schreibt auch gamestar:
"TechPowerUp vermutet sogar, dass die Karten, die auf der Nvidia-Konferenz in die Kamera gehalten wurden, sogenannte Dummys waren - nicht funktionierende Karten. Bei diversen Komponenten fehlten Lötstellen und die Platine wirke wie abgeschnitten. Dies könnte darauf hindeuten, dass Nvidia noch keine funktionierenden Prototypen besitze.
Sollte dies stimmen, wäre es sehr unwahrscheinlich, noch in diesem Jahr DirectX-11-Karten von Nvidia kaufen zu können. Währenddessen kann ATI praktisch konkurrenzlos seine neuen Grafikkarten auf Basis der Radeon HD 5870 anbieten. Ob sich viele Gamer sich von den rein technischen Daten des Fermi-Chips, dessen Geforce-Konfiguration noch unbekannt ist, davon abhalten lassen, eine ATI-Karte zu kaufen?"
http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html
und im prinzip schreiben sie auch gewisse banalen gründe. nvidia hat nix und will einfach nur potentielle kunden vertrösten und anhalten zu warten.
"TechPowerUp vermutet sogar, dass die Karten, die auf der Nvidia-Konferenz in die Kamera gehalten wurden, sogenannte Dummys waren - nicht funktionierende Karten. Bei diversen Komponenten fehlten Lötstellen und die Platine wirke wie abgeschnitten. Dies könnte darauf hindeuten, dass Nvidia noch keine funktionierenden Prototypen besitze.
Sollte dies stimmen, wäre es sehr unwahrscheinlich, noch in diesem Jahr DirectX-11-Karten von Nvidia kaufen zu können. Währenddessen kann ATI praktisch konkurrenzlos seine neuen Grafikkarten auf Basis der Radeon HD 5870 anbieten. Ob sich viele Gamer sich von den rein technischen Daten des Fermi-Chips, dessen Geforce-Konfiguration noch unbekannt ist, davon abhalten lassen, eine ATI-Karte zu kaufen?"
http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html
und im prinzip schreiben sie auch gewisse banalen gründe. nvidia hat nix und will einfach nur potentielle kunden vertrösten und anhalten zu warten.
Zuletzt bearbeitet:
G
Gast31082015
Guest
Es ist keine Vermutung mit den gezeigten Karten.
Lepus
Fleet Captain Special
- Mitglied seit
- 14.08.2009
- Beiträge
- 289
- Renomée
- 1
- Standort
- München
- Mein Laptop
- Alienware M17x R4
- Prozessor
- Intel Core i7-3820M Single Thread @ max 4,1GHz
- Speicher
- 2x4GB Mushkin 1600MHz (ULV)
- Grafikprozessor
- Dell AMD HD 7970M
- Display
- 17,3" FHD
- HDD
- Crucial m4 256Gb mSata
- Optisches Laufwerk
- HL-DT-ST DVDRW/BR-ROM
- Soundkarte
- Creative Sound Blaster Recon 3Di / HM77
- Gehäuse
- Alienware M17x R4
- Netzteil
- Dell 240W
- Betriebssystem
- Windows 8
- Webbrowser
- Opera
Vllt führt ja die Diskussion dazu, dass in ein bis zwei Wochen, dann echte gezeigt werden. Wenn es wirklich nicht der Realität entsprechen sollte, würde NV zeitnah reagieren.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Note 1: Nvidia PR was asked to comment on the faked cards earlier this evening. Their reply was, "I'm glad you're asking us before you write. That statement is false. The product that we displayed was an actual Fermi board. The demo ran on Fermi silicon." We do not believe all of that statement.
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/
ohne worte *gg*
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/
ohne worte *gg*
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Wow, es gibt erste SCREENSHOTS über die Physik-Fähigkeiten des Fermi...na, wenn das mal nicht aussagekräftig ist
Da gab es doch vor ein paar Jahren im Netz auch so ein tolles Fakevideo, in dem angeblich in Echtzeit berechnete Fluidphysik gezeigt wurde.
Also, BILDER sind bei Präsentation von Fluidphysik wohl das letzte Mittel, das man wählen sollte...
Da gab es doch vor ein paar Jahren im Netz auch so ein tolles Fakevideo, in dem angeblich in Echtzeit berechnete Fluidphysik gezeigt wurde.
Also, BILDER sind bei Präsentation von Fluidphysik wohl das letzte Mittel, das man wählen sollte...
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
es ist echt interessant nun zu beobachten was geschrieben wird.
manche seiten berichten, zb gamestar, andere verschweigen.
cb zB kommt grade mit ner news und preist die demo an.
http://www.computerbase.de/news/har...2009/oktober/bilder_physx-techdemo_fermi-gpu/
kein kritisches wort, es wurde alles von der nvidia presseabteilung übernommen *gg*
und wie ich schrieb, wer sagt, dass da fermi gerechnet hat oder nicht ne GTX295 in aller ruhe gearbeitet hat. videso zeigen ist nicht live. hat null bedeutung.
manche seiten berichten, zb gamestar, andere verschweigen.
cb zB kommt grade mit ner news und preist die demo an.
http://www.computerbase.de/news/har...2009/oktober/bilder_physx-techdemo_fermi-gpu/
kein kritisches wort, es wurde alles von der nvidia presseabteilung übernommen *gg*
und wie ich schrieb, wer sagt, dass da fermi gerechnet hat oder nicht ne GTX295 in aller ruhe gearbeitet hat. videso zeigen ist nicht live. hat null bedeutung.
Lepus
Fleet Captain Special
- Mitglied seit
- 14.08.2009
- Beiträge
- 289
- Renomée
- 1
- Standort
- München
- Mein Laptop
- Alienware M17x R4
- Prozessor
- Intel Core i7-3820M Single Thread @ max 4,1GHz
- Speicher
- 2x4GB Mushkin 1600MHz (ULV)
- Grafikprozessor
- Dell AMD HD 7970M
- Display
- 17,3" FHD
- HDD
- Crucial m4 256Gb mSata
- Optisches Laufwerk
- HL-DT-ST DVDRW/BR-ROM
- Soundkarte
- Creative Sound Blaster Recon 3Di / HM77
- Gehäuse
- Alienware M17x R4
- Netzteil
- Dell 240W
- Betriebssystem
- Windows 8
- Webbrowser
- Opera
Naja meistens beruht dieses "schweigen" auf neutrailität. Ist mir bei CB schon öfters aufgefallen. die warten lieber bis es als ziemlich gesichert ist. Manchmal, wenn etwas noch fernab der realität ist, geben sie sich auch den Spekulationen hin. Deswegen beziehe ich meine Informationen von 10 verschiedenen Seiten.
Zum Thema Video. Ist doch echt Banane welche Grafikkarte da gerendert hat. Hätte man auch nen G80 nehmen können, der vllt alle minute EIN BILD fertig hat. Dann muss man halt warten bis er vllt 10sek (10*30 frames) hat beschleunigt das ganze um den Faktor 1800 und schwupps haste dein "EchtzeitVIDEO"
Zum Thema Video. Ist doch echt Banane welche Grafikkarte da gerendert hat. Hätte man auch nen G80 nehmen können, der vllt alle minute EIN BILD fertig hat. Dann muss man halt warten bis er vllt 10sek (10*30 frames) hat beschleunigt das ganze um den Faktor 1800 und schwupps haste dein "EchtzeitVIDEO"
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Sowas nennt man vorgerendert und nicht Echtzeit...Naja meistens beruht dieses "schweigen" auf neutrailität. Ist mir bei CB schon öfters aufgefallen. die warten lieber bis es als ziemlich gesichert ist. Manchmal, wenn etwas noch fernab der realität ist, geben sie sich auch den Spekulationen hin. Deswegen beziehe ich meine Informationen von 10 verschiedenen Seiten.
Zum Thema Video. Ist doch echt Banane welche Grafikkarte da gerendert hat. Hätte man auch nen G80 nehmen können, der vllt alle minute EIN BILD fertig hat. Dann muss man halt warten bis er vllt 10sek (10*30 frames) hat beschleunigt das ganze um den Faktor 1800 und schwupps haste dein "EchtzeitVIDEO"
Lepus
Fleet Captain Special
- Mitglied seit
- 14.08.2009
- Beiträge
- 289
- Renomée
- 1
- Standort
- München
- Mein Laptop
- Alienware M17x R4
- Prozessor
- Intel Core i7-3820M Single Thread @ max 4,1GHz
- Speicher
- 2x4GB Mushkin 1600MHz (ULV)
- Grafikprozessor
- Dell AMD HD 7970M
- Display
- 17,3" FHD
- HDD
- Crucial m4 256Gb mSata
- Optisches Laufwerk
- HL-DT-ST DVDRW/BR-ROM
- Soundkarte
- Creative Sound Blaster Recon 3Di / HM77
- Gehäuse
- Alienware M17x R4
- Netzteil
- Dell 240W
- Betriebssystem
- Windows 8
- Webbrowser
- Opera
deswegen ja die Gansefüßchen
yourgreatestfear
Grand Admiral Special
- Mitglied seit
- 17.08.2003
- Beiträge
- 5.193
- Renomée
- 142
- Standort
- Dresden - Germany
- Mein Laptop
- Dell Latitude XT2 (Samsung SSD 128GB-RBB)
- Prozessor
- Intel Q9550 2,83 @ 0,99 - 3,2
- Mainboard
- Asus P5Q-Deluxe
- Kühlung
- Coolermaster GeminII S
- Speicher
- 4 x 2GB DDR2 PC800 CL4 Corsair XMS2 DHX
- Grafikprozessor
- Asus GTX 960 Turbo 2G
- Display
- 30" Dell 3008WFP @2560x1600 & 22"LG @1650x1050
- SSD
- Crucial MX200 250 GB
- HDD
- 2x WD Velociraptor 300GB @ RAID 0 Intelcontroller
- Optisches Laufwerk
- Samsung DVD-RW/DL
- Soundkarte
- Creative X-Fi Titanium PCIe
- Gehäuse
- Zalman HD 160 Plus schwarz
- Netzteil
- BeQuiet 400W Pure Power L8
- Betriebssystem
- Win10 64Bit H + diverse in VMware
- Webbrowser
- FF
Wenn der GT300 wirklich mal das wird, was derzeit angeprießen wird, stellt sich doch auch die Frage mit was NVidia vorhat den Midrange, Value- und Low-End-Markt zu versorgen. So ein Monster einfach in Teilen deaktiviert anzubieten ist sicherlich nicht mehr drin, rein vom Kostenfaktor her.
Glaub eher hier hat sich NVidia aus Zugzwang in der Entwicklung zum Quadronachfolger bedient, nur um mit großen Zahlen um sich werfen zu können. Was dann als Gamerkarte im Highend- und Enthusiastlevel wirklich kommt, könnte ganz anders aussehen.
Glaub eher hier hat sich NVidia aus Zugzwang in der Entwicklung zum Quadronachfolger bedient, nur um mit großen Zahlen um sich werfen zu können. Was dann als Gamerkarte im Highend- und Enthusiastlevel wirklich kommt, könnte ganz anders aussehen.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.229
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Wer sagt eigentlich das die Fermi abgespeckt werden muß, damit sie eine Mainstream Karte wird!?
Es kann genauso gut sein das der Fermi bisher geteilt wurde (GTX285 oder. Tesla Karten) und ohne die Cache Stufen auskommen mußte!
Ich war Anfangs auch skeptisch, aber für mich macht das den Eindruck, als hätte nVidia nur darauf gewartet bis ATI ihre 58XX Reihe rausbringt!
Jetzt gibt es auch auf der nVidia Seite erste Daten darüber, also so viel "beschiß" kann da nicht dabei sein!
http://www.nvidia.de/object/fermi_architecture_de.html
MfG
Es kann genauso gut sein das der Fermi bisher geteilt wurde (GTX285 oder. Tesla Karten) und ohne die Cache Stufen auskommen mußte!
Ich war Anfangs auch skeptisch, aber für mich macht das den Eindruck, als hätte nVidia nur darauf gewartet bis ATI ihre 58XX Reihe rausbringt!
Jetzt gibt es auch auf der nVidia Seite erste Daten darüber, also so viel "beschiß" kann da nicht dabei sein!
http://www.nvidia.de/object/fermi_architecture_de.html
MfG
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
Weil die GTX285 auch eine Mainstreamkarte ist...Wer sagt eigentlich das die Fermi abgespeckt werden muß, damit sie eine Mainstream Karte wird!?
Es kann genauso gut sein das der Fermi bisher geteilt wurde (GTX285 oder. Tesla Karten) und ohne die Cache Stufen auskommen mußte!
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Für Games die Engines auf DirectX - basis benutzen, ist die Kompatibilität mit C++ und co. auch eher unerheblich. Also sprich, diese Karte mag toll sein als GPGPU Numbercruncher deren Potential sich relativ leicht entfesseln lässt, aber das ergibt noch nicht zwangsläufig eine potente GPU. Vor allem bei diesen Ausmaßen....
Das Teil ist zwar vom Design her interessant, aber auch in 40nm immernoch ziemlich groß. Was bedeutet, Selbst wenn sie sagen wir mal 50% mehr power hat als eine Cypress, kann ATI das Ding immernoch mit einer 5870x2 kontern. Und die Evergreens sind ne ganze Ecke kleiner.
Naja, mal abwarten was denn wann genau auf den Markt kommt und was ATI bis dahin so alles gebracht hat. Dann mal die ersten Benches abwarten und wir sehen weiter...
grüßle,
ich
Das Teil ist zwar vom Design her interessant, aber auch in 40nm immernoch ziemlich groß. Was bedeutet, Selbst wenn sie sagen wir mal 50% mehr power hat als eine Cypress, kann ATI das Ding immernoch mit einer 5870x2 kontern. Und die Evergreens sind ne ganze Ecke kleiner.
Naja, mal abwarten was denn wann genau auf den Markt kommt und was ATI bis dahin so alles gebracht hat. Dann mal die ersten Benches abwarten und wir sehen weiter...
grüßle,
ich
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
In "Single Precision" mag das zutreffen, doch in "Double Precision" kann NV wohl gerade so mit ATI gleichziehen. Mehr dazu gibt's im passenden Milkyway Thread hier auf P3D.Für Games die Engines auf DirectX - basis benutzen, ist die Kompatibilität mit C++ und co. auch eher unerheblich. Also sprich, diese Karte mag toll sein als GPGPU Numbercruncher deren Potential sich relativ leicht entfesseln lässt, [...]
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Wenn der GT300 wirklich mal das wird, was derzeit angeprießen wird, stellt sich doch auch die Frage mit was NVidia vorhat den Midrange, Value- und Low-End-Markt zu versorgen. So ein Monster einfach in Teilen deaktiviert anzubieten ist sicherlich nicht mehr drin, rein vom Kostenfaktor her.
Glaub eher hier hat sich NVidia aus Zugzwang in der Entwicklung zum Quadronachfolger bedient, nur um mit großen Zahlen um sich werfen zu können. Was dann als Gamerkarte im Highend- und Enthusiastlevel wirklich kommt, könnte ganz anders aussehen.
gute frage, hat sich auch 3dcenter gestellt:
"Die eigentliche Problematik sehen wir eher bei den später folgenden kleineren Grafikchips auf Basis der GT300/GF100/Fermi-Architektur.
Denn diese schleppen dann auch die für GPGPU benötigten Transistoren mit sich herum, was höhere Herstellungskosten und eventuell sogar eine höhere Stromaufnahme als vergleichbare Produkte von ATI bedeutet. Allerdings interessiert GPGPU – zumindest breitflächig – bei LowCost- und Mainstream-Karten niemanden."
http://www.3dcenter.org/news/2009-10-01-0
Menace
Vice Admiral Special
- Mitglied seit
- 04.10.2007
- Beiträge
- 961
- Renomée
- 26
- Lieblingsprojekt
- World Community
- Meine Systeme
- Ryzen R7 1700
- BOINC-Statistiken
- Mein Laptop
- HP Elitebook
- Prozessor
- AMD R7 1700
- Mainboard
- Asus ROG Crosshair VI Hero AMD X370
- Kühlung
- be quiet! Pure Rock Tower Kühler
- Speicher
- 16GB (2x 8192MB) G.Skill Trident Z
- Grafikprozessor
- AMD Asus R9Nano
- Display
- NEC EA232WMI, Benq SW2700PT
- SSD
- Samsung EVO 500 GB, 2 x Samsungs EVO 1 GB
- HDD
- 1 x WD6400AAKS
- Optisches Laufwerk
- LG
- Soundkarte
- Focusrite Scarlett 2i4 II
- Gehäuse
- be quiet! Silent Base
- Netzteil
- 550 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum
- Betriebssystem
- Windows 10
- Webbrowser
- Vivaldi Developer
Steht das schon hier irgendwo?
"Update: 02.10.2009
Heute können wir Ihnen die erwähnte Raytracing-Demo des Bugatti Veyron auch als Video präsentieren. Nach unseren Informationen lief die Demo allerdings nicht auf Nvidia Fermi, sondern auf GT200-basierenden Grafikkarten."
http://www.pcgameshardware.de/aid,6...mos-Update-Raytracing-Video/Grafikkarte/News/
Man müsste halt jetzt die GT200 in GT300 umlabeln, dann passt das doch auch wieder.
"Update: 02.10.2009
Heute können wir Ihnen die erwähnte Raytracing-Demo des Bugatti Veyron auch als Video präsentieren. Nach unseren Informationen lief die Demo allerdings nicht auf Nvidia Fermi, sondern auf GT200-basierenden Grafikkarten."
http://www.pcgameshardware.de/aid,6...mos-Update-Raytracing-Video/Grafikkarte/News/
Man müsste halt jetzt die GT200 in GT300 umlabeln, dann passt das doch auch wieder.
yourgreatestfear
Grand Admiral Special
- Mitglied seit
- 17.08.2003
- Beiträge
- 5.193
- Renomée
- 142
- Standort
- Dresden - Germany
- Mein Laptop
- Dell Latitude XT2 (Samsung SSD 128GB-RBB)
- Prozessor
- Intel Q9550 2,83 @ 0,99 - 3,2
- Mainboard
- Asus P5Q-Deluxe
- Kühlung
- Coolermaster GeminII S
- Speicher
- 4 x 2GB DDR2 PC800 CL4 Corsair XMS2 DHX
- Grafikprozessor
- Asus GTX 960 Turbo 2G
- Display
- 30" Dell 3008WFP @2560x1600 & 22"LG @1650x1050
- SSD
- Crucial MX200 250 GB
- HDD
- 2x WD Velociraptor 300GB @ RAID 0 Intelcontroller
- Optisches Laufwerk
- Samsung DVD-RW/DL
- Soundkarte
- Creative X-Fi Titanium PCIe
- Gehäuse
- Zalman HD 160 Plus schwarz
- Netzteil
- BeQuiet 400W Pure Power L8
- Betriebssystem
- Win10 64Bit H + diverse in VMware
- Webbrowser
- FF
Ich zweifle nicht daran das in irgendwelchen Labors die GT300 auch schon einigermaßen läuft. Jedoch hab ich meine Zweifel ob das Teil bis vor kurzem überhaupt als Gamerkarte konzipiert wurde. Denke eher der beschriebene Chip wurde für die Marke Tesla entwickelt und nur notgedrungen aus den Kellerlabors an die Pressestellen gezerrt.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
http://www.pcgameshardware.de/aid,6...C-offenbar-nicht-lauffaehig/Grafikkarte/News/
spricht sich doch weiter rum
spricht sich doch weiter rum
Menace
Vice Admiral Special
- Mitglied seit
- 04.10.2007
- Beiträge
- 961
- Renomée
- 26
- Lieblingsprojekt
- World Community
- Meine Systeme
- Ryzen R7 1700
- BOINC-Statistiken
- Mein Laptop
- HP Elitebook
- Prozessor
- AMD R7 1700
- Mainboard
- Asus ROG Crosshair VI Hero AMD X370
- Kühlung
- be quiet! Pure Rock Tower Kühler
- Speicher
- 16GB (2x 8192MB) G.Skill Trident Z
- Grafikprozessor
- AMD Asus R9Nano
- Display
- NEC EA232WMI, Benq SW2700PT
- SSD
- Samsung EVO 500 GB, 2 x Samsungs EVO 1 GB
- HDD
- 1 x WD6400AAKS
- Optisches Laufwerk
- LG
- Soundkarte
- Focusrite Scarlett 2i4 II
- Gehäuse
- be quiet! Silent Base
- Netzteil
- 550 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum
- Betriebssystem
- Windows 10
- Webbrowser
- Vivaldi Developer
Dafür plaudern angebliche Seniormember von Nvidia aus, dass die Karte noch 2009 ge"launcht" wird. Natürlich "überflügelt" sie die 5870.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
würde zumindest sinn machen. Aus sicht von Nvidia. Aber wo der Vorteil dieses Designs im Gamingbereich liegen soll wenn die genutzte API sowieso DX10/11 ist, ist mit schleierhaft. Dafür braucht man keine c++-Kompatibilität, siehe ATI. Im Gegenteil, ich sehe das relativ aufwändige Design mit Decoder-Einheiten etc. eher als Bremsklotz beim Durchsatz.
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
auf die Gefahr hin, dass ich mich blamiere, aber mir kommt es so vor, als ob der GT300 gar nicht mehr als "Zockerkarte" verkauft wird, sondern eher in die professionelle Schiene mit Bildbearbeitung, CAD usw. zielt.
Alle technischen Daten, die veröffentlicht werden, zielen am Spieler als Kunden vorbei. DX11 wird nur so am Rande erwähnt, soll aber wichtig sein Das klingt nicht gerade nach der neuen Highend-Gamingkarte von NVidia. Dazu noch dieses riesige "Chipmonster", dass kaum rentabel ist und Parallelen zum ersten G200-Chip zeigt. Dass noch keinerlei Taktraten zu erfahren sind, kann meiner Meinung nach 2 Gründe haben. Entweder haben sie noch keinen funktionierenden Chip oder die erreichbare Taktrate ist (noch) so niedrig, dass man sich "schämt", diese zu nennen. Beides hätte zur Folge, dass sich der Release weit in die Zukunft verschiebt.
Hoffentlich liege ich falsch, aber mittlerweile glaub ich, dass NVidia sich aus dem allgemeinen Grafikkartenmarkt zurückzieht und sich wie Matrox in seine "Nische" verzieht. Wünschenswert ist es nicht, aber wohl eine theoretische Möglichkeit.
Gruß
auf die Gefahr hin, dass ich mich blamiere, aber mir kommt es so vor, als ob der GT300 gar nicht mehr als "Zockerkarte" verkauft wird, sondern eher in die professionelle Schiene mit Bildbearbeitung, CAD usw. zielt.
Alle technischen Daten, die veröffentlicht werden, zielen am Spieler als Kunden vorbei. DX11 wird nur so am Rande erwähnt, soll aber wichtig sein Das klingt nicht gerade nach der neuen Highend-Gamingkarte von NVidia. Dazu noch dieses riesige "Chipmonster", dass kaum rentabel ist und Parallelen zum ersten G200-Chip zeigt. Dass noch keinerlei Taktraten zu erfahren sind, kann meiner Meinung nach 2 Gründe haben. Entweder haben sie noch keinen funktionierenden Chip oder die erreichbare Taktrate ist (noch) so niedrig, dass man sich "schämt", diese zu nennen. Beides hätte zur Folge, dass sich der Release weit in die Zukunft verschiebt.
Hoffentlich liege ich falsch, aber mittlerweile glaub ich, dass NVidia sich aus dem allgemeinen Grafikkartenmarkt zurückzieht und sich wie Matrox in seine "Nische" verzieht. Wünschenswert ist es nicht, aber wohl eine theoretische Möglichkeit.
Gruß
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Das können sie sich aber kaum leisten. ATI einfach alleine das Feld zu überlassen...? nene!
Wir dürfen nicht vergessen dass demnächst auch wieder lukrative Verträge auszuhandeln sind wenns um die Grafikbestückung der nextGen-Konsolen geht!
Und AFAIK setzen CAD-Tools und Co. immernoch mehrheitlich auf OpenGL bzw. DirectX auf. Die fangen nun nicht einfach an, an der API vorbei per C++ auf den Fermi zu entwickeln nur weil Nvidia das gern hätte... auch bei denen spielt Kompatibilität eine Rolle.
Nvidia hat ja DX11 selbst schon kleingeredet....
Trotz dem interessanten Design sieht dieses Teil nicht wirklich nach einer hocheffizienten Pixelschleuder fürs zocken aus....!?
Wir dürfen nicht vergessen dass demnächst auch wieder lukrative Verträge auszuhandeln sind wenns um die Grafikbestückung der nextGen-Konsolen geht!
Und AFAIK setzen CAD-Tools und Co. immernoch mehrheitlich auf OpenGL bzw. DirectX auf. Die fangen nun nicht einfach an, an der API vorbei per C++ auf den Fermi zu entwickeln nur weil Nvidia das gern hätte... auch bei denen spielt Kompatibilität eine Rolle.
Nvidia hat ja DX11 selbst schon kleingeredet....
Trotz dem interessanten Design sieht dieses Teil nicht wirklich nach einer hocheffizienten Pixelschleuder fürs zocken aus....!?
Ähnliche Themen
- Antworten
- 296
- Aufrufe
- 38K
- Antworten
- 264
- Aufrufe
- 69K
- Antworten
- 123
- Aufrufe
- 19K
G
- Antworten
- 1K
- Aufrufe
- 167K