News NVIDIA GeForce GTX 275 als Konterpart für die ATI-Offensive - Karten subventioniert?

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Die Spatzen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1234947834">pfeifen es bereits seit Wochen von den Dächern</a> und Planet 3DNow! hat ebenfalls bereits mehrmals davon berichtet: am 6. April sollen die neuen 40 nm GPUs RV740 und RV790 alias ATI Radeon HD 4890, HD 4770 und HD 4750 auf den Markt kommen. Die GPUs sollen dabei keine bahnbrechend neuen Features enthalten, dafür jedoch dank der 40 nm Technologie weniger Strom verbrauchen, entsprechend höher getaktet werden können und aufgrund der geringeren Die-Fläche für den Hersteller günstiger zu produzieren und für den Kunden günstiger zu erwerben sein. Zusätzlich zu der ohnehin bereits <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1236078591">äußerst aggressiven Preisgestaltung im AMD-Lager</a>.

Diese Entwicklung könnte NVIDIA, den Hauptkonkurrenten auf dem Retail-Grafikmarkt, zu einigen schmerzhaften Konterschlägen zwingen. Zum einen soll - ebenfalls am 6. April - eine neue Grafikkarte namens NVIDIA GeForce GTX 275 erscheinen, die im Gegensatz zur <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1236069037">jüngst vorgestellten GTX 250</a> kein G92b-Derivat und damit ein Neu-Neuaufguss eines Methusalems sein soll, sondern laut <a href="http://vr-zone.com/articles/nvidia-plans-geforce-gtx-275-against-radeon-hd-4890/6719.html?doc=6719" target="_blank">VR-Zone</a> basierend auf den GTX 280- oder GTX 260 GPUs. Leider ist die Originalmeldung vermutlich auf sanften Druck von NVIDIA entsorgt worden, jedoch wurde spekuliert, dass es sich entweder um eine Variante der NVIDIA GeForce GTX 260 mit 216 Shader-Prozessoren dafür jedoch ein Speicher-Interface mit 512 Bit Breite (wie die GTX 280), oder 240 Shader-Prozessoren (wie die GTX 280), dafür jedoch mit nur 448 Bit Busbreite zum RAM handle.

In jedem Fall jedoch soll der Kampf gegen die neuen ATI Grafikkarten notfalls subventioniert werden: wie <a href="http://www.theinquirer.net/inquirer/news/398/1051398/nvidia-gtx260s-losing-money" target="_blank">INQ</a> berichtet sollen bereits die aktuellen NVIDIA GeForce GTX 260 Karten mit Verlust verkauft werden, um preislich mit den ATI-Karten konkurrieren zu können. So stellt der Autor eine gewagte Rechnung auf: demnach will NVIDIA die GTX 260 für $169 verkaufen, um zwischen den Preis einer Radeon HD 4870 mit 512 MB und 1 GB zu kommen. Da Retailer mindestens 15 Prozent Marge haben wollen, dürften die Pakete den Hersteller nur $144 kosten. Abzüglich der zahlreichen Beigaben im Retail-Geschäft wie Kabel, Adapter, Software, Verpackung und natürlich Transport, was laut der Rechnung des Autors $9 kostet (ja, nicht mehr; unglaublich, oder?). Da NVIDIA angeblich der GPU- und Speicher-Kit zwischen $110 und $120 kostet, aus dem die Hersteller ihre Karten "basteln" können, wodurch natürlich ebenfalls noch einmal Kosten entstehen für das PCB und die Fertigung an sich, müsse das derzeitige Geschäft mit NVIDIA-Grafikkarten wenigstens ein Plus-Minus-Null-, wenn nicht ein Verlustgeschäft mit bis zu $15 pro Karten sein. Ursache sei die relativ kostspielige Fertigung der aktuellen (echten) GTX-Serie, die auch nach der Umstellung auf 55 nm noch erheblich über den Produktionskosten für die ATI-Chips liegen soll.

Das ATI-Lager wir es freuen, die NVIDIA-Fraktion dagegen muss sich fragen wie es dazu kommen konnte. Nach der Übernahme ATIs durch AMD war NVIDIA praktisch ohne Konkurrenz auf dem Enthusiasten-Markt. Die ATI-Produkte konnten nicht konkurrieren, was zu einem entsprechenden <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1185793851">Verlust an Marktanteilen</a> geführt hat. In dieser Zeit jedoch hat NVIDIA die Zügel offenbar erheblich schleifen lassen, um Entwicklungskosten zu sparen. Man werfe nur einen Blick auf die GeForce 9 Serie, die nichts anderes war, als Clones der letzten GeForce 8 Serie oder die letzten nForce Retail-Chipsätze, die lediglich <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1233866714">umgelabelte, bereits bestehende Chips</a> sind. Hat NVIDIA seinen Vorsprung leichtfertig verspielt? Wir sind auf die Kommentare gespannt...

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1233866714"> Keine "neuen" AMD-Chipsätze von NVIDIA?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1236069037">NVIDIA präsentiert GeForce 250 GTS</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1234338164">NVIDIAs Umsatz bricht um 60 Prozent ein</a></li></ul>
 
Ich denke, dass auch ATI weit beliebter ist bei den meisten, vor allem weil man ja so oft unsoziale Geschäftspraktiken seitens NVIDIA wahrnimmt. Auch stösst vielen diese TWIMTBP - Masche auf. Das hat immer den faden Beigeschmackt dass Spiele zu einseitig optimiert wurden.

Ich denke nVidia ist der Intel bei den Grafikkarten.
 
Denk ich nicht... bei 90% der DAUs ist immernoch Nvidia weitaus beliebter... Seh ich zumindest so in meinem Bekanntenkreis.
 
Hat NVIDIA seinen Vorsprung leichtfertig verspielt?

Ja, ich denke mal man ist von der Radeon 4000er Reihe eiskalt erwischt worden. Dazu kommt noch das AMD sehr aggressive Preise angesetzt hat um Marktanteile zurückzuholen. Im Midrangebreich steht ja Nvidia mit der Geforce 9600 garnichtmal schlecht da. Ist halt nur der Upper-Midrange/Performancebereich der Probleme bereitet.


Nvidia unbeliebter? ??? Das sah vor einem Jahr noch ganz anders aus. Dieser Zyklus ist doch recht normal. Es gab Zeiten da lief es bei ATI besser (Radeon 9700, X1900, HD 4800...) und andermal lief es bei Nvidia wieder besser (Geforce 4, 6800, 8800...) Ich finde jedenfalls nicht das die aktuelle Situation irgendwie ungewöhnlich ist. Man erinnere sich nur an das Radeon HD 2900 Desaster.. :( Mit der Karte hat AMD sicher auch nichts verdienen können.
 
Zuletzt bearbeitet:
Ich halte die GTX 260 und 280 noch immer für sehr gute Karten

Aber da die eigentlich über mein selbst gesetztes Limit liegen müßte ich zu was kleinerem greifen; und da bietet Nvidia nur Uralt-Chips an.

Aber das Nvidia verspielt hat, glaube ich nicht, mit den oben genannten Karten sind sie nach wie vor gut plaziert. Aber es wird eben dringend Zeit, das man in der Preisklasse bis 150 € wieder mal was Neues bringt.
 
Denk ich nicht... bei 90% der DAUs ist immernoch Nvidia weitaus beliebter... Seh ich zumindest so in meinem Bekanntenkreis.

dann haste aber besonders extreme daus im bekanntenkreis ;D

im allgemeinen hat nvidia im letzten jahr extrem viel an annerkennung und respekt verloren. unter anderem auch wegen den zig umbenennungen.

ich kenne sehr sehr viele leute die von nvidia auf ati wechselten.
 
im allgemeinen hat nvidia im letzten jahr extrem viel an annerkennung und respekt verloren. unter anderem auch wegen den zig umbenennungen.

ich kenne sehr sehr viele leute die von nvidia auf ati wechselten.
Also da hab ich andere Erfahrungen gemacht. Viele meiner Kunden, die unter die Sparte "Gamer" fallen, wissen davon gar nichts. Die wissen nur, dass sie irgendwann 1867 mit irgendeiner ATI-Karte mal schlechte Erfahrungen gemacht haben bzgl. Treibersupport (was auch sicherlich so war zu Zeiten der Radeon DDR) und seitdem aus Prinzip auf NVIDIA schwören. Die Feinheiten, wie sie hier diskutiert werden, bekommen die Non-Hardware-Freak-Gamer doch kaum - oder wenn dann erst erheblich verzögert - mit.
 
Aber das Nvidia verspielt hat, glaube ich nicht.

mal abwarten, wie sich der markt weiter entwickelt. aber ganz ehrlich, vor nicht allzu langer zeit konnte nvidia vor kraft kaum laufen, und nun gehts langsam bergab. nachdem amd bei grafikkarten wieder die kurve gekriegt zu haben scheint, muss nvidia in absehbarer zeit mal ein kleines wunder aus der tüte zaubern. denn ansonsten hab ich den eindruck, dass nvidia irgendwann mal ganz vom markt verschwinden könnte.

denn seit amd brauchbare chipsätze anbieten kann, braucht nicht wirklich jemand nvidia-chipsätze. und so lange amd bei grafikkarten sowohl in sachen preis als auch leistung alternativen zu nvidia am markt hat, werden sicherlich nicht wenige kunden ein plattform-lösung a'la intel (und jetzt auch amd) bevorzugen.

wer weiss, vielleicht gibts ja in einigen jahren mal eine fusion von amd und nvidia. ;)
aktuell hat nvidia mit sicherheit noch nicht verspielt. aber wenn man nicht mittelfristig erfolgreich neue segmente erschließt (z.b. ion-netbooks, tesla oder weiss der geier), dann könnte es nvidia irgenwann mal so ergehen wie in der vergangenheit einigen prominenten grafikchip-herstellern.

denn im klassischen pc-bereich wird nvidia immer überflüssiger. auch wenn das argument, dass konkurrenz das geschäft belegt, sicher nicht von der hand zu weisen ist, so bin ich der meinung, dass im bereich der mainboard-chipsätze nvidia von tag zu tag überflüssiger wird. und im grafikkarten-markt ist der technische vorsprung offenbar auch dahin, in zukunft besteht auch hier die gefahr, dass nvidia ähnlich wie bei chipsätzen zwischen amd und intel aufgerieben wird.

Also da hab ich andere Erfahrungen gemacht. Viele meiner Kunden, die unter die Sparte "Gamer" fallen, wissen davon gar nichts. Die wissen nur, dass sie irgendwann 1867 mit irgendeiner ATI-Karte mal schlechte Erfahrungen gemacht haben bzgl. Treibersupport (was auch sicherlich so war zu Zeiten der Radeon DDR) und seitdem aus Prinzip auf NVIDIA schwören. Die Feinheiten, wie sie hier diskutiert werden, bekommen die Non-Hardware-Freak-Gamer doch kaum - oder wenn dann erst erheblich verzögert - mit.
auch wenn die front dieser personen langsam bröckelt, so erleb ich das auch relativ regelmäßig. und das betrifft teilweise leider auch immer noch amd cpus. vor ewigkeiten mal ein problem mit einer billigst kombo amd/ecs k7s5a gehabt und danach nie wieder amd. :]
 
Also da hab ich andere Erfahrungen gemacht. Viele meiner Kunden, die unter die Sparte "Gamer" fallen, wissen davon gar nichts. Die wissen nur, dass sie irgendwann 1867 mit irgendeiner ATI-Karte mal schlechte Erfahrungen gemacht haben bzgl. Treibersupport (was auch sicherlich so war zu Zeiten der Radeon DDR) und seitdem aus Prinzip auf NVIDIA schwören. Die Feinheiten, wie sie hier diskutiert werden, bekommen die Non-Hardware-Freak-Gamer doch kaum - oder wenn dann erst erheblich verzögert - mit.

Das ist der Springende Punkt, schließlich wissen viele auch nichts von Intel Geschäftspraktiken. Für viele ist Intel heilig und die CPUs sind viel stabiler, dank VIA hat sich das für immer eingebrannt.

Bei NV fällte es auf wenn die ersten Kunden merken das ein aufrüsten von einer 8800gt zu GTX 250 nicht wirklich was gebracht hat, dann wird verzweifelt in Foren nach Lösungen gesucht. Aber bis das soweit ist, dauert es wohl noch etwas ;)
 
ATi hat Nvidia einfach kalt erwischt, in dem sie seit der 2xxx HD Serie auf kleine kostengünstig herzustellende Chips gesetzt haben, die man bei Bedarf auf einer Platine zusammenschalten kann, während Nvidia auf riesige Monster-GPUs gesetzt hat und damit Produktions- und Kostentechnisch auf die Schnautze geflogen ist. ATi hat hoch gepokert und gewonnen, denn durch geringe Kosten und damit Endkundenpreise, woie durch geringe Leistungsaufnahme haben sie im mittleren udn Midrange Bereich gerade bei den OEMs gepunktet... und die OEMs machen nunmal das Hauptgeschäft aus.

Die Enthusiast-Krone (also die Leistungskrone, auf die Nvidia zu lange gesetzt hat) ist nur zum einrahmen für den Marketing-Vorstand gut und zum Schwanzvergleich für ein paar Teenager und Enthusiasts... die allgemeine Marktbedeutung wird bei den Freaks völlig überschätzt.
 
Bei NV fällte es auf wenn die ersten Kunden merken das ein aufrüsten von einer 8800gt zu GTX 250 nicht wirklich was gebracht hat, dann wird verzweifelt in Foren nach Lösungen gesucht. Aber bis das soweit ist, dauert es wohl noch etwas ;)

Das wärs ;D

Also ich würde NVIDIAs Position im Augenblick noch nicht so dramatisch sehen. Die Leistung ist immer noch Spitze und ATI kämpft echt hart mit niedrigen Preisen. Wer weiß, wie lange die das Spiel spielen können. Es ist wohl eher so, dass hier der Konkurrenzkampf zum Vorteil des Kunden gereicht, da NVIDIA keine so hohen Margen im High-End-Bereich einstreichen kann und in der Herstellung ebenfalls Kosten sparen muss, wobei die Ersparnis als Ergebnis des Preiskampfes ebenfalls dem Kunden zu Gute kommt.

NVIDIAs Chipsätze hingegen sind nun wirklich nicht mehr massentauglich. Von den Einsteigerboards habe ich ihm Bekanntenkreis nichts Gutes gehört und die High-End-Boards mit Preisen jenseits von 500€ kauft ohnehin niemand.
 
dann haste aber besonders extreme daus im bekanntenkreis ;D

im allgemeinen hat nvidia im letzten jahr extrem viel an annerkennung und respekt verloren. unter anderem auch wegen den zig umbenennungen.

ich kenne sehr sehr viele leute die von nvidia auf ati wechselten.

Die 9800GTX+ habe ich auch nur drin weil es für ATI immer noch keine gescheiten Treiber unter Linux gib und ich sehr günstig rangekommen bin. Sooft ich auch ATI KArten hatte bin ich mit den Treiber unter Suse und dann auch Kubuntu immer auf die Schnauze gefallen.
Nvidia habe ich zum Teil selbst oder mit Hilfe von Tipps aus dem Forum immer ans laufen gebracht.
Würde ich nur Windows nutzen hätte ich mir wohl eine 4850 oder 4870 besorgt. Ewig dieser alte Wein in neuen Schläuchen bei Nvidia ist schon langsam etwas peinlich für Nvidia.

Wobei wenn ich evtl in Zukunft doch wieder 2 Rechner habe kann ich die 9800GTX+ ja ausbauen und durch eine ATI ersetzen. Dann brauch ich kein Dualboot System mehr fahren :)
 
nVidia ist beliebt wie immer, da hat sich wenig getan. Wenn man die letzte Umfrage auf PCGH anschaut, sieht man deutlich das mehr Leute planen eine Geforce zu kaufen als eine ATI, auch wenn das Ergebniss knapp für nVidia ausfällt.
Und wie schon [P3D] Crazy_Chris sagt, es ist ein stetiges Wechselbad bei ATI und nVidia. Mal ist der eine Top, mal der andere.

Ich finde es aber trotzdem erstaunlich wie gut anscheinend ATIs Fertigung funktioniert wenn die ihre Karten so günstig anbieten können und scheinbar trotzdem gewinne einfahren während nVidia hier wohl eine schelchte Ausbeute hat was bei der Anzahl der Transistoren auch schon fast verständlich ist. Bei 1,4 Milliarden Transistoren bei der aktuellen Geforce Reihe im vergleich zu 956 Millionen Transistoren bei der aktuellen RV770 Reihe dürfte die Fehlerquote bei nVidia deutlich höher sein.
 
nVidia hat beim Design auf das falsche Pferd gesetzt. ATI hat mehr auf ein gutes Preis/Leistungs-Verhältnis als auf maximale Leistung gesetzt. Der Top-Down Ansatz von nVidia, erst die Topmodelle entwickeln und daraus dann die Mittelklasse abzuleiten ist mächtig in die Hose gegangen. nVidia hat in den letzten Monaten große Anstrengungen unternommen um das Maximale aus einem falschen Design herauszuholen.

Bei Ati muss man hier vorwerfen nicht nachgelegt zu haben. Zudem zieht Ati bei OEM's häufig den Kürzeren trotz guter Produkte. Da stimmt doch etwas nicht. nVidia ist an der Börse höher bewertet als AMD & ATI zusammen! Selbst wenn man die Verbindlichkeiten berücksichtigt.

Persönlich ziehe ich zur Zeit trotz falschem Design nVidia vor, da man beim GPGPU-Computing deutlich mehr vorzuweisen hat als ATI. CUDA ist eine weitgehend akzeptierte Schnittstelle. ATI hat zwar mit gerade erschienenen Stream SDK v1.4 einige sehr schwerwiegende Einschränkungen behoben, aber zu CUDA fehlt dort noch einiges.

Neuerungen im SDK 1.4:
This software release serves as an upgrade to ATI Stream SDK v1.3 and includes significant improvements.
-- Feature enhancements to Brook+:
-- Support for multiple GPUs in a single program
-- Support for 8-bit and 16-bit integer types -- sehr wichtig, vorher gab es nur Fließkommaoperationen.
-- Interoperability with DirectX API
-- Access to thread-level data sharing -- Sehr wichtig!!
-- Improved support for Microsoft Visual Studio 2008
-- Performance enhancement to the Brook+ runtime:
-- Support for memory pinning to optimize data transfers
-- Support for asynchronous stream write calls
-- Additional hardware features exposed in the Compute Abstraction Layer (CAL):
-- Support for texture sampling (bilinear)
-- Support for FETCH4
-- Support for the ATI Radeon™ HD 4870 X2 consumer graphics card
-- Support for the ATI FirePro™ 3D V8750, V8700, V7770, V7750, V5700 and V3750 professional graphics accelerators
 
Zuletzt bearbeitet:
Du schreibst in der news so, als wenn der rv790 in 40nm wäre, das ist wohl falsch. Nur rv740 ist in 40nm, rv790 benutzt weiterhin 55nm, wenn auch wohl nen anderen 55nm prozess als der rv770.

Bei den Kosten die der inq da aufschreibt, ists auch schwer zu wissen, ob da was dran ist. Falls nv die wirklich mit verlust verkauft, dann kann man von ausgehen, dass die g200b nicht mehr produziert werden und man nur die lager leerverkaufen will um die neuen bringen zu können. Besser das Inventar mit leichten verlust verkaufen, denn bezahlt isses ja eh schon, als es ganz abzuschreiben nach ner zeit.
 
Zuletzt bearbeitet:
Also da hab ich andere Erfahrungen gemacht. Viele meiner Kunden, die unter die Sparte "Gamer" fallen, wissen davon gar nichts. Die wissen nur, dass sie irgendwann 1867 mit irgendeiner ATI-Karte mal schlechte Erfahrungen gemacht haben bzgl. Treibersupport (was auch sicherlich so war zu Zeiten der Radeon DDR) und seitdem aus Prinzip auf NVIDIA schwören. Die Feinheiten, wie sie hier diskutiert werden, bekommen die Non-Hardware-Freak-Gamer doch kaum - oder wenn dann erst erheblich verzögert - mit.

Genau solche kenn ich auch zur Genüge. Diese sind dermassen beratungsresistent, kaum zu glauben. Man muss auch auch zugeben, dass mancher Treiber wirklich schlimm ist. Siehe Kombination 790GX, Windows XP und Firefox. Ist das mittlerweile gefixt?
 
Also da hab ich andere Erfahrungen gemacht. Viele meiner Kunden, die unter die Sparte "Gamer" fallen, wissen davon gar nichts. Die wissen nur, dass sie irgendwann 1867 mit irgendeiner ATI-Karte mal schlechte Erfahrungen gemacht haben bzgl. Treibersupport (was auch sicherlich so war zu Zeiten der Radeon DDR) und seitdem aus Prinzip auf NVIDIA schwören. Die Feinheiten, wie sie hier diskutiert werden, bekommen die Non-Hardware-Freak-Gamer doch kaum - oder wenn dann erst erheblich verzögert - mit.


unterschätze nicht die informationen die sich konsumenten durchs internet holen und die darauffolgende "mundpropagande". das geht sehr schnell. sonst hätte nvidia kaum so schnell immer die preise senken müssen.
zu sagen, nvidia hätte einen besseren ruf oder wäre beliebter ist definitiv falsch.

die marktanteile beider firmen schwankten schon immer in die eine oder andere richtung.
so war zB vor der wirklich erfolgreichen 8er reihe von nvidia der marktanteil von ati höher als der von nvidia. (deswegen war ati ja auch so teuer für amd)
http://winfuture.de/news,26630.html

und wie gesagt, meine bekannten sind eher informiert bzw wenn sie es nicht sind, wird jemand gefragt, der auf einem neueren kenntnisstand ist.
und dann wird im inet bestellt.
ich erinnere an die 9800pro, die hatte ja seinerzeit fast jeder im rechner, ein ähnlicher erfolg wie die 8800 eben.
 
Zuletzt bearbeitet:
Der Bereich der professionellen FireGL-Karten allerdings wird von ATI schon seit Ewigkeiten äußerst schlecht gepflegt, da sind unsere so ziemlich alle älteren und neueren Erfahrungen (CAD-Bereich) mit ATI negativ - lahm und vor allem instabil. Auch das färbt auf den Ruf ab!
 
Zuletzt bearbeitet:
Der Bereich der professionellen FireGL-Karten allerdings wird von ATI schon seit Ewigkeiten äußerst schlecht geplegt, da sind unsere so ziemlich alle älteren und neueren Erfahrungen (CAD-Bereich) mit ATI negativ - lahm und vor allem instabil. Auch das färbt auf den Ruf ab!


und wie siehts aus mit nvidias ruf im mobilen bereich?

ich erinnere an rückrufe und massenhaften ausfällen vor nicht langer zeit. 100 millionen
rückstellung von nvidia.

das färbt auch ab. ;)

im bereich maketing ist nvidia natürlich sehr clever. da wurde doch vor weihnachten diese riesenaktion gestartet.
5 ausgesuchte games mit extra dafür optimierten nvidiatreibern wurden zusammen mit grakas an zig publikationen weltweit verschickt zum "testen"
vorgabe von nvidia war, NUR diese games zu testen in vorgegebenen einstellungen.
da sah nvidia natürlich sehr gut aus.
nur ist diese aktion aufgefallen und cb zB hat sich im nachhinein dafür entschuldigt, auf die marketingmasche von nvidia reingefallen zu sein.
hat trotzdem viel gebracht für nvidia, war eben weihnachtsgeschäft.

also in sachen marketing sind die gut. aber eben meiner meinung nach zweifhaft gut.
 
Zuletzt bearbeitet:
Klar, die Hiobsbotschaften im mobilen Bereich sind für nVidia auch katastrophal. Aber ATI sollte nicht so tun, als würden sie alles richtig machen und nur der Kunde ist doof.
 
Klar, die Hiobsbotschaften im mobilen Bereich sind für nVidia auch katastrophal. Aber ATI sollte nicht so tun, als würden sie alles richtig machen und nur der Kunde ist doof.

tun sie das?

ich erinnere eher an aussagen von nvidias damaligen chefentwickler Kirk.
der meinte doch ganz bescheiden, dass niemand mehr auf der welt ati kaufe und die kein ernstzunehmender gegner mehr wären.

war kurz vorm rv770. und den Kirk gibts bei nvidia nun auch nicht mehr. sein model des riesenchips war ja eher suboptimal.
 
Hochmut kommt vor dem fall. War doch schon anfang 2008 abzusehen wie das für nvidia verläuft. ATI unterschätzen und den kunden für dumm verkaufen ist die denkbar unglücklichste strategie.

Und dann hat man grossmäulig noch den zorn Otellinis auf sich gezogen, der aus solchen geschichten gerne auch mal was persönliches zu machen scheint...

Ich will ja nichts verschreien, aber ironie wäre es schon wenn nvidia am ende den weg von 3dfx geht, auch wenn es eher unwahrscheinlich ist: irgendeiner langt zu und alles was am ende übrig bleibt sind drei buchstaben: SLI. *lol*

Egal, ich freue mich auf den 6.4. da ich unbedingt eine neue, günstige, und stromsparende aber trotzdem leistungsfähige karte brauche. Nvidia hat in meinen überlegungen aber nie eine rolle gespielt...
 
nvidia hats schwer in der zukunft.

cpu und gpu werden im massenmarkt verschmelzen. onboardlösungen werden verschwinden. also ist dieser markt für nvidia verloren.

der chipsatzmarkt wird für nvidia zusammenbrechen, intel und amd werden nvidia in dem bereich zwischen sich zerreiben.

bleibt nur der gamerbereich. das ist n bissle wenig. wenn dann eine generation von ati die von nvidia gravierent schlägt, ist nvidia wirklich geschichte.
 
Und es bleibt der Quadro-Bereich - auch da wird im Gegensatz zu ATI Geld verdient. Es gibt nicht nur Gamer auf der Welt!
 
Zurück
Oben Unten