News NVIDIA zeigt Fermi Architektur

Ausschnitt von PCGH:

"Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein."

Geamter PCGH-Artikel

Das sieht schon alles nicht schlecht aus, aber noch habe ich Zweifel, dass für den Endkundenmarkt vor Februar was ankommt. Welche midrange-Karten mit DX-11-Unterstützung hat den Nvidia?

War das nicht eine "Pfeifen-im-Walde"-Veranstaltung?
 
Live Demo?

davon habe ich noch nichts gesehen. Was hat man den vorgeführt? Video zum anschauen? Link?
 
In welchem von den Videos ist die Karte in Action zu sehen?

Was versteht ihr unter einer Live Demo?
 
Das was man da sieht ist keine Consumer Karte. Das da ist eine Karte die eher in Entwicklungstudios oder in aufwendigen Grafiklabors zum Einsatz kommt. U.a. in CAD Bereichen.

So wie ich das richtig interpretiere ist das da nicht der GT300, der in euere Gehäuse kommt. Das wird nur die Ablöse für die Tesla Reihe, die sich asbald Fermi nennen darf.
 
In welchem von den Videos ist die Karte in Action zu sehen?

Was versteht ihr unter einer Live Demo?


live demo war wohl, die karte live in die luft zu halten. ;D

die videos waren nicht life, die konnten auch mit ner anderen gpu gemacht worden sein, von daher hat man eigentlich nix gezeigt.

zu fermi philosphier ich mal.
ich seh ihn als produkt des intel-nvidia krieges, welche komponente nun im pc auf dauer die wichtigerere sei. man erinnere sich an die verbalen auseinandersetzungen in denen der ceo von nvidia unter anderem sagte, "wir werden ihnen (intel) in den arsch treten"

gemeint war damit offensichtlich fermi. zu dem zeitpunkt hatte nvidia ati als konkurrenz schon abgeschrieben, ich erinnere an die äusserungen vom ehemaligen chefentwickler kirk, der sagte, niemand auf der welt interessiere sich mehr für ati.

und genauso hat man entwickelt. im glauben die grafikleistung gar nicht so extrem weiter steigern zu müssen (ati war quasi am boden und geschlagen) konzentrierte man sich auf gpu computing als konkurrenz zur cpu. quasi angriff auf intel.

aber nun ist die frage, war der weg der richtige? ati wurde vollkommen unterschätzt und mit dem rv770 wurde nvidia geschockt. die preise mußten radikal gesenkt werden, der gewinn brach ein bzw man fährt ein quartal nach dem nächsten verluste.

grund der große chip, der zwar auch schon cudafähig war, dieses jedoch im markt aber nicht wirklich gewürdigt wurde.
es zählen halt die benchmarks der games und da konnte der GT200 eher im bescheidenen rahmen den rv770 schlagen.

so und nun fermi, noch eine weitere steigerung richtung gpu computing. sämtliche äusserngen von nvidia beziehen sich darauf. zur gamesleistung kommen sätze wie "die leistung in spielen ist für konsumenten nicht mehr so wichtig, gpu computing ist wichtiger"
hört sich für mich schon fast wie ein eingeständnis an, dass es im gamebereich zu keiner revolution kommt.

und die frage steht im raum, welcher homekonsument wird wohl den aufpreis für gpu computing zahlen? die größere chipfläche kostet nun mal. beim GT200 hat es nicht geklappt, die preise mußten massivst gesenkt werden und ich vermute mal beim fermi wird es auch nicht funktionieren. nvidia kann nur hoffen im profibereich genug abzusetzen, für die normalen zocker zuhause haben sie am bedarf vorbeientwickelt. denn 98% interessieren sich nicht für gpu computing. die wollen preiswerte schnelle grakas zum zocken.

und wenn bald microssoft die werbetrommel startet und windows 7 mit dx11 verkaufen will.... und die oem hersteller dx11 rechner anbieten wollen. was macht dann nvidia die nächsten monate?
 
Zuletzt bearbeitet:
Ich glaube schon, dass der G300 in Konkurrenz zur ATI treten kann und vielleicht sogar in der Spieleleistung gewinnt. Das Problem ist imho, dass der Chip noch lange braucht, bis es ihn zu kaufen gibt. Ich bin auf die nächste Umlabelaktion gespannt. ;)
 
........
und gezeigt wurde auch nichts. bin mir noch net mal sicher, ob da wirklich n chip drin war.


muß mir mal selber antworten, weils zu witzig ist.... und ich n bissle rechthaberisch bin *gg*

http://www.hardwareluxx.de/community/showpost.php?p=12991799&postcount=1770


nvidia hat n bissle geschummelt. ;D die haben NIX zum zeigen, war nur geschwätz um von ati abzulenken. ;)

10yqrmt.jpg


soso, das is ne fermi- karte *gg* sieht n bissle abgesägt aus. ;)
 
Zuletzt bearbeitet:
muß mir mal selber antworten, weils zu witzig ist.... und ich n bissle rechthaberisch bin *gg*
Mag ja sein, dass die gezeigte Karte nicht funktionstüchtig war, aber von
...sondern vielmehr um ein recyceltes PCB, von dem die Bauteile gekratzt wurden, welches abgesägt wurde...
sehe ich nichts. Mich wundert allenfallen, dass die PEG Buchsen keine durchgehenende Lötpunkte mit überstehenden Litzen haben, wie sonst üblich.

Andererseits hat man auch von der Radeon HD 5870 mit ihrem alles verdeckten Kühlerkonstrukt aus billigem Plastik von einer Fälschung gesprochen. Und was war dann...
 
001238704b.jpg


vielleicht so besser zu sehen, dass es schon arg abgesägt an der seite aussieht. ;)

desweiteren wurde ja auch NIX gezeigt. ein paar videos, aber halt keinen lauffähigen fermi.

der hat nen blender hingehalten, das wars.
 
Zuletzt bearbeitet:
vielleicht so besser zu sehen, dass es schon arg abgesägt an der seite aussieht. ;)
Leider haben diese Bilder von Verschwörungstheoretikern immer einen Nachteil:

Gleich, ob es nun um vermeintliche Außerirdische, geheime Militärpläne oder nVidia Grafikkarten geht, die Bilder sind immer Pixelmatsch. *buck*
 
Selbst wenn Sie kein wirklich funktionierendes Produkt haben, sind die doch nicht so doof, eine Platine so zu kappen, dass es auffällt.
 
die Lötstellen passen irgendwie garnich zu der Position der Auschlüsse.
"sieht wirklich so aus als wärens mal 6 pol und 8 pol gewesen für Anschluß oben. der Finger im Bild deutet auch noch ziemlich genau auf die Stelle; .... und möglw mit der anderen Hand am Kopf kratz. was jetz nat nichts heissen soll, also lassen wir das"
 
Zuletzt bearbeitet:
@ spina:
ne komm. nix verschwörung. sowas nennt man marketing. so tun als ob man was hätte, um den mitbewerber n bissle zu stören.

und marketing kann nvidia gut.

und schau nochmal unten links. siehste net die abgesägte rundung?




PS: was schrieb jemand bei hardwareluxx:

"ja wie 3DFX damals als sie die V5 6000 zeigten und beim genauen hinsehen war nicht eine leiterbahn auf dem PCB nur alles drauf verlötet aber nichts war verbunden"

also kam sowas schon mal vor ;)

s4cmmp.jpg


die lüftung ist auch arg überdenkenswert. *gg* müßte die öffnung nicht oben sein? ;)
 
Zuletzt bearbeitet:
[P3D] Crazy_Chris;4043465 schrieb:
Einfach nur beeindruckend. :o Mit einer herkömmlichen GPU hat das ja nicht mehr viel zutun. Larrabee verkommt da ja richtig zur Witznummer und der R870 wirkt auf einmal altbacken. Aber sie sollen erstmal liefern und dann sehen wir weiter. :) Schöne bunte Präsentationen malen können auch andere.

Das wird wohl ein richtig fettes grünes Monster. ;D


Wieso sieht der RV870 altbacken aus? Weil der G300 bei doppelt der Genauigkeit 8x so schnell ist wie der G200?

Dann Rechne ich dir mal was vor:

Da beim G300 die Einheiten mehr als verdoppelt wurden zum G200, bleibt im Vergleich zu aktuellen Generation (RV870 wurde auch verdoppelt) nur noch der Faktor 4 übrig. Nun war der RV770 3x so schnell bei double Berechnungen ist wie der G200 also bleicht noch ca. 25% übrig, ohne die Verbesserungen des RV870 zu berücksichtigen.

So schnell verpuffen die 8fache Geschwindigkeit im Vergleich zu Konkurrenz.

Die von vielen gelobte Flexibilität, halte ich auch für fraglich natürlich ist Flexibilität immer gut allerdings sollten dies OpenCL und DX11 bereits bieten. Für mich hört sich das danach an das es nur unter Cuda funktioniert, und NV sich wieder eine eigne Insel schafft. Das ist zwar gut für das sich in der Zwickmühle befindliche NV, allerdings sehe ich dadurch massive Probleme. Der Kunde hat noch nie wirklich von Insel Profitiert.
 
@ Untergroundking: Ich war so frech, und habe mal Deine Abbildung der "Fermi" ins 3DCenter-Forum rübergetragen (den Link auf Luxx auch). Die glauben auch, dass es gefaket ist. Müssten unterhalb der Stromanschlüsse beim PCB nicht etwas frei sein?*noahnung*
 
Einige der Features der GT300 werden nur mit CUDA richtig genutzt werden können. Dazu gehört beispielsweise der Cache. Laut Real World Tech werden beispielsweise nur 16 KB L1 Cache shared memory unterstützt.


MfG @
 
@ menace:
ist net frech sondern richtig, ich hab die fotos ja auch übernommen.

aber schon witzig, dass selbst hardcore nvidia verteidiger y33H@ sagt, sieht arg "strange" aus.

und öhm... die rote linie, das war die linie des "bastlers" das war seine schnittkante *gg* aufmalen und dann flexxen ;)

netter satz eines users dort...

"Damit gründet nV also eine neue Unterart des Produktlaunches, neben dem beliebten Paperlaunch gibts jetzt auch den Pappkameradenlaunch"


lol, geht rund... ein netter kommentar bei cb:

"Dass Nvidia keinen Prototypen, sondern nur einen Haufen Schrott (etwas anderes kann ein abgesägtes PCB mMn nicht mehr sein) mit glänzendem Blech darüber zeigt, ist wirklich Schade."

*gg*


der fake von voodoo damals.
proto_v5_pb.jpg


man suche die leiterbahnen... ;) gibts net
 
Zuletzt bearbeitet:
Wirklich seltsam, mal hat die Karte einen 6-Pin Anschluss, mal einen 8-pin, mal einen 6+8-pin -

Ebenfalls seltsam: würden zwei Karten existieren, so wäre mit der besser laufenden eine Tech-Demo gezeigt worden, so à la Larrrabie, mit A0 Stepping irgendetwas geruckelt zum Zeigen, dass man Hardware hat und nicht nur .ppt- Slides, und die zweite, welche weniger gut läuft, hätte man dem guten Jerry in die Hand gedrückt zum demonstrieren, dass bald Karten zu kaufen gibt.

Wann hat AMD lauffähige DX11-Chips präsentiert? Computex (Juni)?

Fazit: Wer sich zu irgendeinem Preispunkt eine HD5xxx kauft, dürfte dies nicht bereuen. nVIDIA kann sich keinen Preismampf leisten, da ein G200 chip mehr kostet als ein Cypress, aber die Volllversion davon gegen eine teildesaktivierte Version antreten muss (GTX285 vs HD5850) - resp. zwei davon gegen eine Vollversion (GTZ 295 vs HD 5870). Der G300 wird einen völlig anderen Markt bedienen, und eventuell "Hemlock"-basierten FirePro oder Larrabie Gesellschaft leisten.
 
Ich glaube auch das man mit ner HD5xxx nicht wirklich was falsch machen kann. Selbst wenn die GT300 am ende schneller sein sollte. ATI holt immer noch was über die Treiber raus und wie sich die Karten dann in 1-2 Jahren noch mit den Games schlagen, kann sowieso keiner sagen.

Verbrauchsmässig trau ich Nvidia nicht zu die ATIs nochmal zu unterbieten.
 
Verbrauchsmässig trau ich Nvidia nicht zu die ATIs nochmal zu unterbieten.

Das wäre auch unrealistisch da der GT300 deutlich größer wird.

Wieso sieht der RV870 altbacken aus? Weil der G300 bei doppelt der Genauigkeit 8x so schnell ist wie der G200?

Nö, eher 2 Cache level und voll C++ kompatibel. Das Teil sehe ich nicht mehr als GPU an. Muß man nur sehen was man aus der hohen Flexibilität alles machen kann. Das ganze hat ja durchaus auch Nachteile... Aber wie gesagt, das ganze ist derzeit eh nur ein Papiertiger. Also abwarten und Risen spielen. ;D
 
Zuletzt bearbeitet:
Wenn man ganz ganz zynisch ist kann man die "Miserable Yield Geschichte" mit 7 lauffähigen Chips aufgreifen und hier Nummer 7 vorstellen

wmeauw86mf.jpg


;D

Mal ehrlich mit der zusammengepappten Karte haben sie sich auf die Knochen blamiert, wundert mich warum das noch keine News Seite aufgegriffen hat.
 
Und wieder ein Grafikchip, bei dem man auf die Refresh-Generation warten sollte, bei dem dann hoffentlich die gröbsten Bugs beseitigt und der Stromverbrauch auf ein akzeptables Maß gesenkt wurde. Auch die Treiber dürften bei einem so komplexen Chip ein wenig Zeit zur Reife brauchen.

Also für mich wird das Ding ab jetzt in ca. einem Jahr interressant...
 
Ich rechne frühstens mit Februar... nv wird die nächsten Wochen nur durch Gerüchte zu hören sein, um die Kunden am Kauf einer ATi zu hindern.
 
Die Webcasts sind ja mal sehr interessant, da könnte sich AMD mal eine Scheibe von abschneiden. Habt ihr auch etwas gesehen?
Cool fand ich die Aussage mit Bezug auf Bild, das man früher Floppy Kabel markiert hätte um sie auseinander zu halten, jetzt machen wir das mit Nervenbahnen.:o
 
Zurück
Oben Unten