GT300 Spekulationsthread

p4z1f1st

Grand Admiral Special
Mitglied seit
28.04.2003
Beiträge
9.722
Renomée
81
So, hier kann weitergemacht werden...
 
Hier die Fortsetzung aus dem R800-Thread

@Dr@
Totale Spekulation, aber:
Wurde eigentlich der Name GT300 oder G300 auf der Konferrenz erwähnt oder war da nur von Fermi die Rede? (muss ich noch überprüfen, aber dafür haeb ich jetzt keine Zeit)
Denn theoretisch könnte es ja sein, dass man mit dem Fermi rein auf den GPGPU-Markt abzielt und einenzweiten Chip, der dann eben G300 heißt für Spieler hat, nämlich auf dem G200 basierend und um einiges abgespeckt.
Da man sich vom GPGPU große Marktanteile verspricht, wäre eine derartige Strategie eigentlich auch nicht verkehrt, denn der Fermi würde einfach zuviel Ballast mitschleppen, den ein Spieler nicht braucht.
 
nun schreibt auch gamestar:

"TechPowerUp vermutet sogar, dass die Karten, die auf der Nvidia-Konferenz in die Kamera gehalten wurden, sogenannte Dummys waren - nicht funktionierende Karten. Bei diversen Komponenten fehlten Lötstellen und die Platine wirke wie abgeschnitten. Dies könnte darauf hindeuten, dass Nvidia noch keine funktionierenden Prototypen besitze.

Sollte dies stimmen, wäre es sehr unwahrscheinlich, noch in diesem Jahr DirectX-11-Karten von Nvidia kaufen zu können. Währenddessen kann ATI praktisch konkurrenzlos seine neuen Grafikkarten auf Basis der Radeon HD 5870 anbieten. Ob sich viele Gamer sich von den rein technischen Daten des Fermi-Chips, dessen Geforce-Konfiguration noch unbekannt ist, davon abhalten lassen, eine ATI-Karte zu kaufen?"

http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html

und im prinzip schreiben sie auch gewisse banalen gründe. nvidia hat nix und will einfach nur potentielle kunden vertrösten und anhalten zu warten.
 
Zuletzt bearbeitet:
Vllt führt ja die Diskussion dazu, dass in ein bis zwei Wochen, dann echte gezeigt werden. Wenn es wirklich nicht der Realität entsprechen sollte, würde NV zeitnah reagieren.
 
Wow, es gibt erste SCREENSHOTS über die Physik-Fähigkeiten des Fermi...na, wenn das mal nicht aussagekräftig ist :]
Da gab es doch vor ein paar Jahren im Netz auch so ein tolles Fakevideo, in dem angeblich in Echtzeit berechnete Fluidphysik gezeigt wurde.

Also, BILDER sind bei Präsentation von Fluidphysik wohl das letzte Mittel, das man wählen sollte...
 
es ist echt interessant nun zu beobachten was geschrieben wird.

manche seiten berichten, zb gamestar, andere verschweigen.

cb zB kommt grade mit ner news und preist die demo an.

http://www.computerbase.de/news/har...2009/oktober/bilder_physx-techdemo_fermi-gpu/

kein kritisches wort, es wurde alles von der nvidia presseabteilung übernommen *gg*

und wie ich schrieb, wer sagt, dass da fermi gerechnet hat oder nicht ne GTX295 in aller ruhe gearbeitet hat. videso zeigen ist nicht live. hat null bedeutung.
 
Naja meistens beruht dieses "schweigen" auf neutrailität. Ist mir bei CB schon öfters aufgefallen. die warten lieber bis es als ziemlich gesichert ist. Manchmal, wenn etwas noch fernab der realität ist, geben sie sich auch den Spekulationen hin. Deswegen beziehe ich meine Informationen von 10 verschiedenen Seiten.

Zum Thema Video. Ist doch echt Banane welche Grafikkarte da gerendert hat. Hätte man auch nen G80 nehmen können, der vllt alle minute EIN BILD fertig hat. Dann muss man halt warten bis er vllt 10sek (10*30 frames) hat beschleunigt das ganze um den Faktor 1800 und schwupps haste dein "EchtzeitVIDEO"
 
Naja meistens beruht dieses "schweigen" auf neutrailität. Ist mir bei CB schon öfters aufgefallen. die warten lieber bis es als ziemlich gesichert ist. Manchmal, wenn etwas noch fernab der realität ist, geben sie sich auch den Spekulationen hin. Deswegen beziehe ich meine Informationen von 10 verschiedenen Seiten.

Zum Thema Video. Ist doch echt Banane welche Grafikkarte da gerendert hat. Hätte man auch nen G80 nehmen können, der vllt alle minute EIN BILD fertig hat. Dann muss man halt warten bis er vllt 10sek (10*30 frames) hat beschleunigt das ganze um den Faktor 1800 und schwupps haste dein "EchtzeitVIDEO"
Sowas nennt man vorgerendert und nicht Echtzeit...;)
 
deswegen ja die Gansefüßchen ;)
 
Wenn der GT300 wirklich mal das wird, was derzeit angeprießen wird, stellt sich doch auch die Frage mit was NVidia vorhat den Midrange, Value- und Low-End-Markt zu versorgen. So ein Monster einfach in Teilen deaktiviert anzubieten ist sicherlich nicht mehr drin, rein vom Kostenfaktor her.

Glaub eher hier hat sich NVidia aus Zugzwang in der Entwicklung zum Quadronachfolger bedient, nur um mit großen Zahlen um sich werfen zu können. Was dann als Gamerkarte im Highend- und Enthusiastlevel wirklich kommt, könnte ganz anders aussehen.
 
Wer sagt eigentlich das die Fermi abgespeckt werden muß, damit sie eine Mainstream Karte wird!?
Es kann genauso gut sein das der Fermi bisher geteilt wurde (GTX285 oder. Tesla Karten) und ohne die Cache Stufen auskommen mußte!

Ich war Anfangs auch skeptisch, aber für mich macht das den Eindruck, als hätte nVidia nur darauf gewartet bis ATI ihre 58XX Reihe rausbringt!
Jetzt gibt es auch auf der nVidia Seite erste Daten darüber, also so viel "beschiß" kann da nicht dabei sein!

http://www.nvidia.de/object/fermi_architecture_de.html

MfG
 
Wer sagt eigentlich das die Fermi abgespeckt werden muß, damit sie eine Mainstream Karte wird!?
Es kann genauso gut sein das der Fermi bisher geteilt wurde (GTX285 oder. Tesla Karten) und ohne die Cache Stufen auskommen mußte!
Weil die GTX285 auch eine Mainstreamkarte ist...
 
Für Games die Engines auf DirectX - basis benutzen, ist die Kompatibilität mit C++ und co. auch eher unerheblich. Also sprich, diese Karte mag toll sein als GPGPU Numbercruncher deren Potential sich relativ leicht entfesseln lässt, aber das ergibt noch nicht zwangsläufig eine potente GPU. Vor allem bei diesen Ausmaßen....
Das Teil ist zwar vom Design her interessant, aber auch in 40nm immernoch ziemlich groß. Was bedeutet, Selbst wenn sie sagen wir mal 50% mehr power hat als eine Cypress, kann ATI das Ding immernoch mit einer 5870x2 kontern. Und die Evergreens sind ne ganze Ecke kleiner.
Naja, mal abwarten was denn wann genau auf den Markt kommt und was ATI bis dahin so alles gebracht hat. Dann mal die ersten Benches abwarten und wir sehen weiter...

grüßle,
ich
 
Für Games die Engines auf DirectX - basis benutzen, ist die Kompatibilität mit C++ und co. auch eher unerheblich. Also sprich, diese Karte mag toll sein als GPGPU Numbercruncher deren Potential sich relativ leicht entfesseln lässt, [...]
In "Single Precision" mag das zutreffen, doch in "Double Precision" kann NV wohl gerade so mit ATI gleichziehen. Mehr dazu gibt's im passenden Milkyway Thread hier auf P3D.
 
Wenn der GT300 wirklich mal das wird, was derzeit angeprießen wird, stellt sich doch auch die Frage mit was NVidia vorhat den Midrange, Value- und Low-End-Markt zu versorgen. So ein Monster einfach in Teilen deaktiviert anzubieten ist sicherlich nicht mehr drin, rein vom Kostenfaktor her.

Glaub eher hier hat sich NVidia aus Zugzwang in der Entwicklung zum Quadronachfolger bedient, nur um mit großen Zahlen um sich werfen zu können. Was dann als Gamerkarte im Highend- und Enthusiastlevel wirklich kommt, könnte ganz anders aussehen.


gute frage, hat sich auch 3dcenter gestellt:

"Die eigentliche Problematik sehen wir eher bei den später folgenden kleineren Grafikchips auf Basis der GT300/GF100/Fermi-Architektur.

Denn diese schleppen dann auch die für GPGPU benötigten Transistoren mit sich herum, was höhere Herstellungskosten und eventuell sogar eine höhere Stromaufnahme als vergleichbare Produkte von ATI bedeutet. Allerdings interessiert GPGPU – zumindest breitflächig – bei LowCost- und Mainstream-Karten niemanden."

http://www.3dcenter.org/news/2009-10-01-0
 
Steht das schon hier irgendwo?

"Update: 02.10.2009
Heute können wir Ihnen die erwähnte Raytracing-Demo des Bugatti Veyron auch als Video präsentieren. Nach unseren Informationen lief die Demo allerdings nicht auf Nvidia Fermi, sondern auf GT200-basierenden Grafikkarten."

http://www.pcgameshardware.de/aid,6...mos-Update-Raytracing-Video/Grafikkarte/News/

Man müsste halt jetzt die GT200 in GT300 umlabeln, dann passt das doch auch wieder. ;D :]
 
Ich zweifle nicht daran das in irgendwelchen Labors die GT300 auch schon einigermaßen läuft. Jedoch hab ich meine Zweifel ob das Teil bis vor kurzem überhaupt als Gamerkarte konzipiert wurde. Denke eher der beschriebene Chip wurde für die Marke Tesla entwickelt und nur notgedrungen aus den Kellerlabors an die Pressestellen gezerrt.
 
Dafür plaudern angebliche Seniormember von Nvidia aus, dass die Karte noch 2009 ge"launcht" wird. Natürlich "überflügelt" sie die 5870.
 
würde zumindest sinn machen. Aus sicht von Nvidia. Aber wo der Vorteil dieses Designs im Gamingbereich liegen soll wenn die genutzte API sowieso DX10/11 ist, ist mit schleierhaft. Dafür braucht man keine c++-Kompatibilität, siehe ATI. Im Gegenteil, ich sehe das relativ aufwändige Design mit Decoder-Einheiten etc. eher als Bremsklotz beim Durchsatz.
 
Hallo,

auf die Gefahr hin, dass ich mich blamiere, aber mir kommt es so vor, als ob der GT300 gar nicht mehr als "Zockerkarte" verkauft wird, sondern eher in die professionelle Schiene mit Bildbearbeitung, CAD usw. zielt.

Alle technischen Daten, die veröffentlicht werden, zielen am Spieler als Kunden vorbei. DX11 wird nur so am Rande erwähnt, soll aber wichtig sein :]*suspect* Das klingt nicht gerade nach der neuen Highend-Gamingkarte von NVidia. Dazu noch dieses riesige "Chipmonster", dass kaum rentabel ist und Parallelen zum ersten G200-Chip zeigt. Dass noch keinerlei Taktraten zu erfahren sind, kann meiner Meinung nach 2 Gründe haben. Entweder haben sie noch keinen funktionierenden Chip oder die erreichbare Taktrate ist (noch) so niedrig, dass man sich "schämt", diese zu nennen. Beides hätte zur Folge, dass sich der Release weit in die Zukunft verschiebt.

Hoffentlich liege ich falsch, aber mittlerweile glaub ich, dass NVidia sich aus dem allgemeinen Grafikkartenmarkt zurückzieht und sich wie Matrox in seine "Nische" verzieht. Wünschenswert ist es nicht, aber wohl eine theoretische Möglichkeit.

Gruß
 
Das können sie sich aber kaum leisten. ATI einfach alleine das Feld zu überlassen...? nene!
Wir dürfen nicht vergessen dass demnächst auch wieder lukrative Verträge auszuhandeln sind wenns um die Grafikbestückung der nextGen-Konsolen geht!
Und AFAIK setzen CAD-Tools und Co. immernoch mehrheitlich auf OpenGL bzw. DirectX auf. Die fangen nun nicht einfach an, an der API vorbei per C++ auf den Fermi zu entwickeln nur weil Nvidia das gern hätte... auch bei denen spielt Kompatibilität eine Rolle.
Nvidia hat ja DX11 selbst schon kleingeredet....
Trotz dem interessanten Design sieht dieses Teil nicht wirklich nach einer hocheffizienten Pixelschleuder fürs zocken aus....!?
 
Zurück
Oben Unten