GT300 Spekulationsthread

Und bei deinen Beobachtungen sind keine OEM´s dabei was man auch bedenken sollte.
Ich sehe immer wieder "High-End" mit GTX 470/480 aber ich vermute auch das einige Enthusiasten schon bei ATI gekauft haben, weil sie dem warten überdrüssig geworden sind.

Aber Verbrauch spielt da eine eher untergeordnete Rolle, Lautstärke kommt aufs Gemüt an manche ertragen ja auch problemlos die Fussballtröten.
Die Schwäche liegt meiner Meinung nach eher in den andern Marktbereichen aber auch da spielt MSH eine noch viel größere Rolle als Geizhals.
 
...Einige warten schon auf den GTX485 der laut letzten Gerüchten ein GF100 @ 512 Shader werden soll. Treue nv Anhänger hat nv zu genüge.

Nur sieht es nicht danach aus, dass sich Nvidias Situation verbessern dürfte.

Mit dem Gerücht der ach-so-tollen GTX485 kaufen diese NV-Anhänger heute erst mal keine NV-Graka, weil sie ja auf die noch-tollere GTX485 warten und warten und warten.

Zwischenzeitlich dürfte dann eine deutlich leistungsfähigere HD6870 (=Southern Islands) auf den Markt gekommen sein, an die dann die GTX485 vermutlich nicht ran kommt. Aber NV streut dann neue Gerüchte, dass ja der Fermi-II nicht mehr so weit wäre. Und die NV-Anhänger warten wieder, und warten und warten.

Bevor so ein Fermi-II kommt, kommen vermutlich die ersten 28nm-HKMG-GPUs von AMD auf den Markt, die NV alt aussehen lassen. Aber Huang macht vermutlich neue Sprüche über einen Fermi-III in 28nm-HKMG, der bei TSMC in 2012 kommen soll. Und die NV-Anhänger warten und warten und wenn...
 
Durch die relativ vielen "anspruchslosen" Konsolenportierungen, kann man aber auch deutlich besser warten als früher.
Ist auf Dauer aber auch kein Vorteil für NV da Low-End nicht mehr existiert dank APU und ATI im Mainstream deutlich besser aufgestellt ist weil da Effizienz eine größere Rolle spielt als im Highend.
Aber die Auswirkungen wird man vermutlich erst in einigen Jahren spüren so gesehen macht der GPGPU-Focus schon Sinn.
 
Wer sagt das, dass das so sein soll?
Leute, die sich mit der Sache tiefer beschäftigen.

Stryki schrieb:
... und ATI im Mainstream deutlich besser aufgestellt ist weil da Effizienz eine größere Rolle spielt als im Highend.
Effizienz spielt auch dann im High-End eine Rollen, wenn man an Grenzen gestoßen sind. Und diesesmal ist Nvidia praktisch an 2 Grenzen gestoßen. Einerseits die 300 Watt-TDP unter Furmark und andererseits mit der Spannung von 1,0 Volt.

Und das könnte schon bei Fermi II ein Problem werden und vielleicht nicht mehr mit Mega-Stromverbrauch die Performance-Spitze übernehmen.

Abgesehen davon, hat Nvidia eigentlich schon seit Jahren , ich betone seit Jahren ihre GPUs viele Monate nach AMD auf den Markt gebraucht. Erstmal fiel es nicht auf, da sie mit G80 & Nachfolger einen großen Vorsprung hatten.
Erst mit HD5870 wurde es sichtbar und beim 28nm-Umstieg könnte es noch Sichtbarer werden.

Stryki schrieb:
Aber die Auswirkungen wird man vermutlich erst in einigen Jahren spüren so gesehen macht der GPGPU-Focus schon Sinn.
Mal sehen, ob AMD mit North-Island auch nicht ECC & C++ & Co bringt.
C++ ist ja auch nicht sooo überraschend. Schließlich arbeitet Intel mit Larrabee ja auch schon seit 2006 oder 2007 an so etwas, die das (und deutlich mehr) hätte können sollen.
 
Die Frage ist wie lange sich NV noch auf seine Fans und den guten Namen verlassen kann....
Es heißt doch immer, der Hauptabsatz wird nicht mit HighEnd-Produkten sondern im Mainstream gemacht... und dort hat NV noch gar kein Dx11 anzubieten.. *noahnung*
Mal wieder ein schönes Beispiel dafür dass in der Branche die Technik und Rationalität recht wenig zählt im Vergleich zu "Hype" und Marke.
Das Problem hatte AMD ja schon zu P4-Zeiten eben mit Intel statt mit NV.
Schauen wir mal wie die Geschichte sich entwickelt... und was sich NV einfallen lässt um nicht mit den nächsten Monsterarchitekturen richtig auf die Nase zu fallen...
 
Die Frage ist wie lange sich NV noch auf seine Fans und den guten Namen verlassen kann....
Ich denke, das noch flimmer @ AF dürfte der Hauptgrund für die Treue sein. Das sind die häufigsten Beschwerden, die ich lese.

Mit HD5000 wurde schon eine perfekte Blume geschaffen.
Wenn sie mit North-Island neue Shader & TMUs bringen und dabei auch noch das AF-Flimmern wegbekommen sowie die Performance-Krone in Single & Dual-GPU übernehmen, IMO erst dann könnte Nvidias Image "wegbrechen".
Und wenn wenn Bulldozer auch noch die Nummer 1 wird, dann könnte die Bulldozer @ North-Island = All-in-One erst recht beliebt werden.

Im Notebook würde ich Optimus als Hauptgrund für das momentane Image sehen.

Wenn AMD zur Sandy-Bridge & Fusion-Einführung einen gleichguten Optimus bringt, dann ...

Mit OpenCL wird ja auch mit der Zeit, die Bedeutung von Cuda in Professionellen Markt bzw. wahrscheinlich auch im Office-Desktop-Markt geringer.
Mit Apple könnte da ein richtiger Push kommen.

Das Problem hatte AMD ja schon zu P4-Zeiten eben mit Intel statt mit NV.
Ich bin da auf Apple gespannt. Vorallem, wie sie die AMD-CPUs bzw APUs bzw. OpenCl in der Öffentlichkeit präsentieren bzw. wie viele Modelle dann mit AMD-Produkte ausgeliefert werden.

Apple würde ich als Spitze des Notebook-Markt sehen. Vorallem, weil sie wissen, wie man sich verkauft und wie man Konzepte bzw. Programme Kundenfreundlich erfolgreich gestalten kann.
Wenn sie mit AMD-Produkte (CPU & GPU bzw APU) noch erfolgreicher werden, als sie es eh schon sind, dann dürften ziemliche rosige Zeiten kommen.
 
Wie hart an der Kante Nvidia die Specs seiner GTX480 ausgelegt hat, zeigt auch, dass es kaum OC-Varianten davon gibt, und auch die "Superclocked+"-Variante des Nvidia-Partners EVGA (hier: http://geizhals.at/deutschland/a537021.html) mit 726Mhz gerade mal 1Mhz mehr als deren bisherige "Superclocked"-Variante bietet. Beide scheinen die einzigen OC-Varianten zu sein und bieten damit gerade mal 3,7% mehr Takt.
Es ist zwar auch eine Zotac-AMP! mit 756Mhz gelistet, aber dabei handelt es sich vermutlich ähnlich den mit 1000Mhz und 1050Mhz getakteten HD5870-OCs eher um Paper-Produkte.

Bei der HD5870 haben die schnellsten OC-Varianten 950Mhz, also 11,8% mehr Takt, was allerdings auch nicht der Hit ist.
 
... Mit OpenCL wird ja auch mit der Zeit, die Bedeutung von Cuda in Professionellen Markt bzw. wahrscheinlich auch im Office-Desktop-Markt geringer.
Mit Apple könnte da ein richtiger Push kommen ...
Ich warte schon seit der ersten OpenCL Ankündigung von AMD-Treibern darauf, dass sie performante Lösungen anbieten. Bis jetzt sind das immer noch ATI-Baustellen.

Währenddessen konnten die grünen Grafikgiganten nach wie vor CUDA als GPGPU-Lösung etablieren. Und machen wir uns nichts vor - auch Nvidia ist am Tisch dabei für OpenCL - und im CUDA-Bereich ist auch die Laufzeitumgebung von OpenCL berücksichtigt.

MFG Bobo(2010)
 
Ich warte schon seit der ersten OpenCL Ankündigung von AMD-Treibern darauf, dass sie performante Lösungen anbieten. Bis jetzt sind das immer noch ATI-Baustellen.
Gabs beim CCC 10.5 nicht einige OpenCL beschleunigungen?

http://www.heise.de/newsticker/meld...iert-Open-Computing-Language-1-1-1022251.html

Immerhin wurde gestern OpenCL 1.1 mit einem C++-Wrapper-API spezifiziert.

Es geht voran, aber die ersten Programme bzw. Sichtbaren Ergebnisse & Beschleunigungen erwarte ich mir erst mit der Fusion-Einführung.

Dazu hat AMD ja vor paar Tagen Sony als neuen Notebook-Hersteller mit AMD-CPUs bekanntgeben.

Also, der Gewinn von Apple & Sony, welche quasi die Creme de le Crem der Notebooks sind, hat AMD mit Fusion geschafft.
Entweder ist da der K10.5 mit High-K & 32nm (&ULK?) so extrem gut, oder ist es doch der beginnende OpenCL @ DX11-iGPU ???
 
Der Witz ist ja, dass CUDA mit dem eigenen C-Dialekt performanter läuft, als auf OpenCL ... wohlgemerkt - auf Nvidia-Karten.

Und solange im Profisektor mehrheitlich Nvidia-Karten gekauft werden, solange bleibt auch dieser vermeintliche OpenCL-Vorteil - "da herstellerunabhängig" - nahezu wertlos. Es ergibt nach wie vor Sinn*, wenn sich Professionelle Endanwender sich auf CUDA-Lösungen einlassen.

Oder um einen Vergleich zu bringen: Zwar ist OpenGL auch herstellerunabhängig - zu dumm nur, dass Microsofts proprietäre DirectX API und Laufzeitumgebung deutlich breiter vertreten ist und sich sogar im Jahr 2010 in Bereiche vor gekämpft hat, die einstmals als Bastion von OpenGL galten (Professionelle Anwendungen im CAD-Bereich).

Der Hinweis mit dem "Notebook-Hersteller" ist da übrigens nicht zielführend. Es wird wohl Sony sein ... und die Notebooks sind meistenteils bei den kommenden AMD-Variationen mit Microsofts Windows 7 ausgerüstet - Dort wird GPGPU-Computing nativ (wie bei den meisten Herstellern) bequemerweise Microsofts GPGPU-Schnittstelle "Direct Compute/Compute Shaders" nutzen - OpenCL ist anders. Und natürlich nutzt auch Nvidia diese GPGPU-Schnittstelle von Microsoft.

MFG Bobo(2010)


* = Zur Redewendung "It make sense". Im Deutschen ist die Übersetzung nach wie vor "Sinn ergeben". "Sinn machen" ist neudeutsches Denglisch.
 
Zuletzt bearbeitet:
Man sollte bei der Verbreitung von OpenCL in Zukunft auch die Mobilen Internetgeräte nicht unterschätzen, auf denen wohl zu einem großen Teil Linux-Derivate laufen werden, die dann verstärkt auf OpenCL setzen. Denn gerade dort kann man in einigen Situation wegen der schwachen Hauptprozessorleistung von GPGPU profitieren. Viele Firmen im OpenCL-Konsortium sind ja auf Mobilgeräte spezialisiert.
 
TSMCs 40nm-Yield scheinte weiter katastrophal zu sein, selbst der kommende kleinere GF104 soll von Anfang an erst mal nur in gestutzter Form kommen: http://www.fudzilla.com/content/view/19199/1/

"Nvidia's GF104 is crippled from the start ..."

Auch die Tatsache, dass es keine Preissenkungen bei AMD bei deren GPUs gibt, obwohl TSMC die 40nm-Kapazitäten stets erweitert, unterstreicht das weiter.

Womöglich bringt AMD den 40nm-Ontarion bei TSMC, um die für GPUs bestellten Wafer irgendwie noch zu nutzen. Ein nur 75mm² kleines Die ist weit weniger auf schlechtes Yield empfindlich, und auch hier kann man noch ein CPU-Core oder einen Teil der GPU stutzen. Womöglich wird man auch noch ein kleines GPU-Die weiter bei TSMC fertigen, aber die größeren Dice womöglich bald nicht mehr.

Womöglich wird AMD bei Verfügbarkeit von GFs Prozessen seine größeren GPUs auf GF portieren.
 
Achtung: Nicht von dem beschnittenen GF104 auf die TSMC Yield schließen, denn Nvidia hat wahrscheinlich noch massenweise teildefekte GF100 auf Lager, die sie loswerden wollen und nicht würden, wenn ein voll ausgebauter GF104 kommen würde. Nachdem der Großteil der teildefekten GF100 verkauft ist, wird auch ein voll ausgbauter GF104 kommen.
 
Achtung: Nicht von dem beschnittenen GF104 auf die TSMC Yield schließen, denn Nvidia hat wahrscheinlich noch massenweise teildefekte GF100 auf Lager, die sie loswerden wollen und nicht würden, wenn ein voll ausgebauter GF104 kommen würde. Nachdem der Großteil der teildefekten GF100 verkauft ist, wird auch ein voll ausgbauter GF104 kommen.

Wenn der Prozess ordentliche Yields liefern würde, hätte Nvidia ein so extremes Vorgehen nicht nötig: man wird kaum freiwillig funktionierende Dice stutzen.

Hätte der 40nm-Prozess von TSMC endlich ordentliches Yield, hätte TSMC schon längst damit geprahlt. Weil aber deren Prahlerei ausbleibt, ebenso offenbar auch bei AMD die GPU-Stückzahlen kaum zunehmen, gibt es nur eine Schlußfolgernung: das 40nm-Yield von TSMC wird einfach nicht oder nur marginal besser.
 
Der Witz ist ja, dass CUDA mit dem eigenen C-Dialekt performanter läuft, als auf OpenCL ... wohlgemerkt - auf Nvidia-Karten.
Hoffentlich hat Nvidia nicht dementsprechend gewirkt.

Und solange im Profisektor mehrheitlich Nvidia-Karten gekauft werden, solange bleibt auch dieser vermeintliche OpenCL-Vorteil - "da herstellerunabhängig" - nahezu wertlos. Es ergibt nach wie vor Sinn*, wenn sich Professionelle Endanwender sich auf CUDA-Lösungen einlassen.
Apple hat mit iPod & iPhone & iPad den vorhandenen Markt extrem gepusht.
Sowie Asus mit Eee PC.
Das war kein langsamer Wechsel, sondern ein Sofortiger Umstieg.

Das könnte eben auch mit OpenCl passieren, wenn es mit Fusion @ Notebook & Netbook sowie wenn wenn wenn wenn "fast gleichzeitig" North-Island mit C++ und einige Fermi-Schmankerln daherkommen und dazu den Fermi die Performance-Krone abnehmen kann.
Das hört sich vielleicht für manche unrealistisch an, aber wenn der nächste Schritt ( wäre der 4.) so wie die letzten Male wäre, dann könnte der eben so aussehen, wobei C++ von mir ziemlich spekulativ ist.

Und wenn wenn wenn wenn AMD bis North-Island & Fusion mit mehr 40nm-Kapazitäten ordentlich Marktanteile dazugewinnen kann, warum sollten dann die Firmen dann für die Masse auf das 2.Klassige welches Produkt setzen, was in diversen Nischenbereichen besser ist.

Falls das nicht so eintritt wie oben beschrieben, dann wird der Umstieg wahrscheinlich eher Jahre brauchen.

@Bobo_Oberon
Grundsätzlich will ich dir nicht widersprechen, da du dich wahrscheinlich in diesem Gebiet deutlich besser auskennst.
Aber nachdem die Intel - Exklusive-Partner Sony & Apple "auf einmal" in den letzten Wochen/Monate umgestiegen sind, könnte vielleicht eben doch mehr dahinterstecken als wir vielleicht jetzt glauben.

Essentielle Veränderungen gabs AFAIK immer erst ab der Einführung und nicht monate im Voraus.
Daher muss man halt auf die Einführung abwarten und beobachten, wie das Umfeld jetzt reagiert.

TSMCs 40nm-Yield scheinte weiter katastrophal zu sein, selbst der kommende kleinere GF104 soll von Anfang an erst mal nur in gestutzter Form kommen: http://www.fudzilla.com/content/view/19199/1/

"Nvidia's GF104 is crippled from the start ..."
Oder es ist einfach das B1-Stepping, was eben die Yield & Co eben nicht erreicht.

Das erinnert mich eben an G92, welches zuerst als GT8800 "crippled" mit 112 Shader daherkam. Alle Paar wochen kam dann immer was besseres. Zuerst die 8800 GTS mit 128 Shader und dann paar wochen später die 9800GTX mit noch mehr Takt.

Und genau das ist das, was ich schon öfters sage. Nvidia braucht seit jahren bei der Einführung von Top-Produkten mehrere Steppings (oder sie gaben sich mit weniger Leistung zufrieden). Damals viel es nicht auf, da Nvidia noch gute vorhandene Grafikkarten hatte. Aber jetzt fällt es auf, wenn sie mit dem 2 oder gar 3 Stepping Monate Verspätet kommen und daher überrascht mich die Krüppel-Karte eben überhaupt nicht.

Das gleiche geht wahrscheinlich eben mit Fermi-28nm weiter. Blöd für Nvidia wird es, wenn AMD die North-Island wieder mit den 1.Stepping rausbringen kann.
 
Zuletzt bearbeitet:
Natürlich ist OpenCL nicht schneller als CUDA...wie soll es auch? - wenn es nur 80% der EPrformance erreicht ist das schon gut...
Wenn man direkt & gezielt auf eine bestimmte Architektur hin entwickelt hat man meistens bessere Performance wie bei einem "rundumschlag" der auf allem verfügbaren laufen soll.
Dass nicht voin heute auf Morgen alle auf OpenCL umsteigen war wohl auch klar.
Aber langfristig wird kaum was anders übrig bleiben...Abhängigkeit von 1 Hersteller ist keine gute idee und wenn die Konkurrenz immmer stärker wird...nunja...
Wir werden sehen....
 
... Aber nachdem die Intel - Exklusive-Partner Sony & Apple "auf einmal" in den letzten Wochen/Monate umgestiegen sind, könnte vielleicht eben doch mehr dahinterstecken als wir vielleicht jetzt glauben. ...
Bei Sony mag ja das mit einstmals "Exklusive" gewesen sein ...

Aber Apple hat sich bei der Intelplattform ausgerechnet Nvidia ins Haus geholt für Chipsätze - sogar als Intel ihre Core i-Sonstwas faktisch verdongelte, damit OEMs erst gar nicht in Versuchung kommen fremdes Zeug zu verbauen - Apple hats geschaft die Core i3 mit ausgeknipster Grafik von Intel zu bekommen.

Und auch im Mobil-Bereich ist nicht Friede Freude Eierkuchen mit dem x86-Primus angesagt - welchen Untersatz hat das iPad nochmal? Atom? - Nö, ganz und gar nicht, sondern Todfeind ARM.

Wenns AMD ins "i"-Camp reinschafft, bin ich der letzte, der sich nicht darüber freut.

Aber wer OpenCL über den Klee lobt, der muss sich seiner aktuellen Stellung gegen CUDA bewusst sein: "A Performance Comparison of CUDA and OpenCL".

Wobei CUDA auch als Sammelbegriff genutzt werden kann für eine Entwicklungsumgebung - und das ist OpenCL einträchtig neben DirectX und Nvidias eigener CUDA-Schnittstelle.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Wo hat Apple den abgeknipste Core I3 bekommen? Wenn ich mir den neuen Mac mini anschaue steckt da ein Core2Duo mit NV Chipsatz (GF320M).
Im neuen MacBook ist es dasselbe, nur in den größeren Geräten wo Platz für eine GPU ist steckt ein Core Ix.
Wobei ich an AMD und Apple auch nicht so recht glaube sonst würden sie meiner Meinung nach mehr ATi GPU´s verbauen.
 
Übern klee loben ist auch zuviel gesagt...es ist schlichtweg der einzigeweg zu wirklich hersteller- und plattfotmübergreifende rnutzung von GPGPU.
ATI wird den teufel tun und CUDA unterstützen und NV wird sich nach all den investments in CUDA auch auf keine spielchen mehr einlassen. Sogesehen bleiben wir bei OpenCL hängen.
Allerdings, und das sei betont, ist der Standard noch recht jung. - Da ist noch einiges optmierungspotential, auch und gerade im ATIschen Treiber bzw. SDK.
Dass NV sich nicht anstrengt es mehr zu optmieren ist auch klar, sie profitieren ja davon wenn die branche bei CUDA bleibt...
 
Also hier wird ja gesprochen als sein der Apple - AMD deal bereits fix?! Meiner Erinnerung nach war da bis jetzt nur ein leises Gerücht, oder hab ich da was verpasst?
 
ja es war ein Gerücht zumindest meines Wissens nach, mehr oder weniger sicher hörte man nur das Apple sich Llano zumindest anschaut bzw Samples hat.

Es gab aber auch mal ein Gerücht das Llano ganz toll für die Wii2 sei usw, einfach mal abwarten was alles wirklich an Produkten kommt.
 
Wo hat Apple den abgeknipste Core I3 bekommen? ...
Ich habe heute einige Zeit gesucht, aber nichts mehr gefunden. Ich war mir sehr sicher, dass da mal eine Meldung auf Heise war.

Auf der Wikipedia, webarchive.org und Apples Produktpalette habe ich keinen Hinweis mehr dazu bekommen.

MFG Bobo(2010)
 
Aber wer OpenCL über den Klee lobt, der muss sich seiner aktuellen Stellung gegen CUDA bewusst sein: "A Performance Comparison of CUDA and OpenCL".
Ich kann mich noch gut an die Crossfire-Entwicklung erinnern.
Die hatte damals auch nur 5%-Marktanteil und war der SLI technisch unterlegen.

Dann kam CrossfireX.
Aber es änderte sich nicht viel bzw. hatte kaum Aufmerksamkeit, weil die GPU-Karten noch zu langsam waren.
AMD wurde damals ja überhaupt nicht ernstgenommen.

HD 2600 X2 wurde sowieso belächelt.
Aber 6-9 Monate später brauchte AMD nicht nur den HD 48x0 raus, sondern sie brauchten auch HD 4800 X2 raus und schnappten Nvidia für eine Zeit die Performance-Krone weg, was ja paar Monate davor keiner für möglich hielt.
Und auf einmal war CrossfireX bzw. HD xxxx X2 Massentaglich bzw. in der Breite aktzeptiert bzw. als Konkurrent aktzeptiert.

So ähnlich würde ich das auch mit OpenCl einschätzen. Die Frage ist ja nur, wann es passiert.
Schon bei der Fusion- & North-Island-Einführung oder vielleicht später erst bei OpenCl 2.0.

Beides ist IMO möglich. Ersteres tritt ein, wenn nicht nur AMD pusht, sonder auch viele andere Firmen oder wenige Wichtige wie Apple.
Aber wie OpenCL momentan gepusht wird, wissen wir noch nicht so genau.
 
Zurück
Oben Unten