AMD bald Marktführer bei diskreten Grafikkarten?

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.373
Renomée
9.707
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Laut einem Bericht von DigiTimes erwartet AMD bis 2009 die Vormachtstellung von NVIDIA bei den diskreten Grafikkarten zu beenden.

Mit Hilfe der ATI Radeon HD 4800 Serie konnte AMD nach eigenen Angaben seinen Anteil in diesem Marktsegment von 30 auf 40 Prozent erhöhen und will diesen bis Ende 2008 auf 50 Prozent ausbauen.

Im nächsten Jahr will man dann mehr Marktanteile als NVIDIA besitzen.


<b>Quelle:</b> <a href="http://www.digitimes.com/news/a20080814PD228.html" target="b">AMD aims to grab 50% share of discrete graphics card market by the end of 2008</a>
 
Hochmut kommt vor dem Fall*suspect*

*buck*
 
Laut einem Bericht von mir erwarte ich 2009 einen Multimillionen-Lottogewinn. Meine Teilnahme konnte ich 2008 auf 30-40% steigern und erwarte sie 2009 auf 50% aller Lotterien zu steigern. Nächstes Jahr will ich dann gewinnen.

Wollen kann man viel und erwarten auch. Darauf fallen auch nur selbsternannte Analysten und unwissende/unerfahrene Anleger herein, bis dann nächstes Jahr die Gewinnwarnung kommt, weil man die selbst gestellten Erwartungen, die an der Börse nicht als solche, sondern als Tatsachen gewertet werden, nicht erfüllen konnte. Und dann stürzt der Kurs wieder mal ab, es gehen wieder Jobs drauf, etc. pp. Langsam kann ich solche "Prognosen" nicht mehr hören :]
 
Laut einem Bericht von mir erwarte ich 2009 einen Multimillionen-Lottogewinn. Meine Teilnahme konnte ich 2008 auf 30-40% steigern und erwarte sie 2009 auf 50% aller Lotterien zu steigern. Nächstes Jahr will ich dann gewinnen.

Wollen kann man viel und erwarten auch. Darauf fallen auch nur selbsternannte Analysten und unwissende/unerfahrene Anleger herein, bis dann nächstes Jahr die Gewinnwarnung kommt, weil man die selbst gestellten Erwartungen, die an der Börse nicht als solche, sondern als Tatsachen gewertet werden, nicht erfüllen konnte. Und dann stürzt der Kurs wieder mal ab, es gehen wieder Jobs drauf, etc. pp. Langsam kann ich solche "Prognosen" nicht mehr hören :]

Kann ich nur zustimmen. Schön, wie optimistisch sie immer sind. :)
 
Wollen kann man viel und erwarten auch. Darauf fallen auch nur selbsternannte Analysten und unwissende/unerfahrene Anleger herein, bis dann nächstes Jahr die Gewinnwarnung kommt, weil man die selbst gestellten Erwartungen, die an der Börse nicht als solche, sondern als Tatsachen gewertet werden, nicht erfüllen konnte. Und dann stürzt der Kurs wieder mal ab, es gehen wieder Jobs drauf, etc. pp. Langsam kann ich solche "Prognosen" nicht mehr hören :]

Lustig, wie du den bogen von abstürzenden aktienkursen zu verlorenen jobs spannst. Aber den anderen unterstellen, sie wüssten nicht was sie tun. *lol*
 
Darauf fallen auch nur selbsternannte Analysten und unwissende/unerfahrene Anleger herein, bis dann nächstes Jahr die Gewinnwarnung kommt, weil man die selbst gestellten Erwartungen, die an der Börse nicht als solche, sondern als Tatsachen gewertet werden, nicht erfüllen konnte. Und dann stürzt der Kurs wieder mal ab, es gehen wieder Jobs drauf, etc. pp.

Ich kenne Unternehmen die entlassen 10% der Belegschaft, was schon mal 10.000 Leute bedeuten kann, auch wenn sich die Prognosen POSITIV bewahrheitet haben. :-/
 
Ich warts auch mal ab :P

Aber ehrlich, seit der Übernahme von ATI hat diese Sparte noch nie so positiv dagestanden wie jetzt nach der Einführung der 4xxx-Serie
 
So wie das klingt und wie AMD im Interview sagt, sie machen so weiter und werden sich nicht ausruhen wird Anfang nächsten Jahres der RV870 kommen, mit 2000 Shaderprozessoren. Jede Wette;D
 
Zuletzt bearbeitet:
Die 4800-Serie ist ja wirklich ein Schlag in nVidias offenes Gesicht. Die GTX260 ist teurer als die 4870 und leistet weniger - die GTX280 leistet etwas mehr, kostet aber auch über 100€ mehr.

Dann der Schlamassel mit den fehlerhaften integrierten Chips von nVidia. Also das Jahr 2008 endet vermutlich nicht sehr gut.

Wenn AMD/ATI so weitermacht, wird die 5800-Generation ein Knaller.
 
Man muss sich halt ambitionierte Ziele setzen. Wobei ich glaube, dass Nvidia nach dem Shrink auf 55nm erstmal wieder Boden gut machen kann. AMD sollte ihr Engagement bei Spielen nicht nur auf Grakas alleine richten, sondern auch die Prozzi-Sparte nicht vergessen. Nvidia hat vorgemacht wie lohnend das sein kann. AMD muss dringend im Softwarebereich mehr investieren.
 
...

Wenn AMD/ATI so weitermacht, wird die 5800-Generation ein Knaller.

Hoffentlich knallen die nicht so wie NV Chipsätze in den Schlepptops ^^
Mal unter uns Mädelz. ATI gehört zu AMD. Soweit so gut das wissen wir alle.
Das AMD mit einem halbvollen Tank auf Welttour geht und das mit einem lauten Sportauspuff versucht auszugleichen wissen wir auch alle. Mit ATi haben sie jetzt noch den offenen Filter und lassens richtig krachen. Db statt PS. Hauptsache laut ;D
 
diskreten Grafikkarten

Also ich übersetze discrete nicht in diskret... was ist denn bitte schön eine... verschwiegene, zurückhaltende... oder aus dem technischen Bereich... unterscheidbare, trennbare, abzählbare Grafikkarte?!

Trennbar? Ja, würde gehen, aber wir wollen die Karte ja nicht trennen, sondern ins System integrieren.
Unterscheidbar? Sicher, gibt ja etliche verschiedene Hersteller... Sapphire, Powercolor, HIS, ASUS etc.
Abzählbar? Na klar, manche haben sogar zwei davon im System - CF.

Aber ist es das was AMD mit discrete graphics card meint? IMHO NEIN!!!

Ich denke es ist ganz einfach übersetzt mit...

eigenständig, einzel, separat oder vielleicht noch getrennt.
.
EDIT :
.

Hoffentlich knallen die nicht so wie NV Chipsätze in den Schlepptops ^^
Mal unter uns Mädelz. ATI gehört zu AMD. Soweit so gut das wissen wir alle.
Das AMD mit einem halbvollen Tank auf Welttour geht und das mit einem lauten Sportauspuff versucht auszugleichen wissen wir auch alle. Mit ATi haben sie jetzt noch den offenen Filter und lassens richtig krachen. Db statt PS. Hauptsache laut ;D

Also mir ist es sch**ss egal ob der Tank halbvoll ist, so lange er mich zum Ziel bringt - Effizienz!. Lauter Sportauspuff? Also ne 280er nVidia iss nich gerade ein Leisetreter und teuer. Der offene Filter in der Form 4850/70 ist ein sehr effektives wertiges Gerät.

Ist doch SUPER, wenn ATI nVidia wieder mehr Druck gibt. Wir profitieren durch günstige Preise... da lass ich mir das Feuerwerk der Marketing-Abtlgen gerne gefallen.

Polemik statt logischer Schlussfolgerung. Hauptsache laut! *noahnung*
 
Zuletzt bearbeitet:
Wenn du bei Wikipedia noch ein Link weiter geklickt hättest dann wüsstest du wie das discrete bzw. diskret zu deuten ist. ;)
Diskret hat hier nicht mit deinen genannten Begriffen zu tun sondern drückt aus das es sich um eine eigenständige Einheit (Gegenteil von Integriert) handelt.

Diskrete Grafikkarte bedeutet also das es sich um eine gesteckte Karte handelt und nicht etwa um eine Onboardlösung.
 
Go AMD Go!

Ich denke, dass es in der Grafiksparte seit der 4800er Serie echt kaum besser aussehen kann für AMD.
In der CPU Sparte siehts mittlerweile ja auch nicht mehr so schlecht aus.

Nicht zuletzt kommt nach dem Absturz auch wieder ein Anstieg an der Börse. (Ich für meinen Teil habe von der 40% Kurssteigerung in den letzten Tagen einen kleinen Kuchen mitgenommen.) :)

gruß
skell
 
Also ich übersetze discrete nicht in diskret... was ist denn bitte schön eine... verschwiegene, zurückhaltende... oder aus dem technischen Bereich... unterscheidbare, trennbare, abzählbare Grafikkarte?!

Trennbar? Ja, würde gehen, aber wir wollen die Karte ja nicht trennen, sondern ins System integrieren.
Unterscheidbar? Sicher, gibt ja etliche verschiedene Hersteller... Sapphire, Powercolor, HIS, ASUS etc.
Abzählbar? Na klar, manche haben sogar zwei davon im System - CF.

Aber ist es das was AMD mit discrete graphics card meint? IMHO NEIN!!!

Ich denke es ist ganz einfach übersetzt mit...

eigenständig, einzel, separat oder vielleicht noch getrennt.
Schau lieber mal im Fremdwörterbuch nach, bevor du die viel Zeit mit so nem langen Text verschwendest ;)
 
Wichtig ist doch nicht, ob Auspuff mit Luffi gut klingt, sondern ob da auch gescheite Nocken und nen Fächer drin sind.
Und das wird drin sein, gehe ich fest von aus. Aber die Marktführerschaft sehe ich noch lange nicht. Nur mal ne Vermutung.
 
Hochmut kommt vor dem Fall*suspect*

*buck*


Das ist kein Hochmut das ist ein Ziel. Ziele sollte man sich immer Stecken (egal ob Privat, Beruflich oder als Betrieb), Ende 2008 wird man eine Bilanz ziehen. Mal sehen ob die Ehrgeizigen Ziele erreicht werden.


Hochmütig war/ist NV die ATI als nicht Konkurrenz fähig bezeichnet haben. Und alte Produkte unter neuem Namen verkauft haben.
 
Abwarten, mit dem R3X0 waren die auch mal weit und dann gab es ein Versagen nach dem anderen.

Bei Ati lernt man nicht aus Fehlern, sonst hätten die schon lange ihr CF Modell umgebaut, denn damals gab es keine Microrukler bei zwei GPU auf einer Platine. Damals musste auch kein Programm extra dafür optimiert werden.

Und weil die nicht aus Fehlern lernen werden die versagen bei der nächsten GPU Generation.
 
Wenn du bei Wikipedia noch ein Link weiter geklickt hättest dann wüsstest du wie das discrete bzw. diskret zu deuten ist. ;)
Diskret hat hier nicht mit deinen genannten Begriffen zu tun sondern drückt aus das es sich um eine eigenständige Einheit (Gegenteil von Integriert) handelt.

Diskrete Grafikkarte bedeutet also das es sich um eine gesteckte Karte handelt und nicht etwa um eine Onboardlösung.

Wenn du schon so auf "Genauigkeit" achtest, hättest du den Post besser lesen sollen... Ironie und Humor sind dir möglicherweise fremd... *noahnung*

Der Ausdruck ist irreführend bzw. zu akademisch. 99% der User hier wissen doch gar nicht was "discrete" in den möglichen Übersetzungen heisst und können nur erahnen was es im konkreten Kontext bedeutet.

Ich habe lediglich auf eine bessere Übersetzung hingewiesen.
.
EDIT :
.

[MTB]JackTheRipper;3695318 schrieb:
Schau lieber mal im Fremdwörterbuch nach, bevor du die viel Zeit mit so nem langen Text verschwendest ;)

Du solltest erstmal lesen, bevor du hier überflüssige Sekrete absonderst...
 
Hi,

was zeigt so eine Aussage. Sie zeugt zumindest von Selbstbewusstsein und es könnte auch sein, dass es dafür einige Gründe gibt.

Warten wir mal ab.


Greetz
neax;)
 
Wenn das Ironie sein sollte habe ich das in der Tat übersehen.:o
Aber was soll an dem Begriff Diskret denn jetzt so schwer zu verstehen sein wenn man da eine ordentliche Portion Ironie ansetzen muss.
Afaik ein ganz normales Wort das in der Technikwelt oft benutzt wird.
 
Naja, mal sehen ob es überhaupt Gewinn geben wird.
Da warten noch ein paar Milliardchen auf Ausgleich.
 
Wenn du schon so auf "Genauigkeit" achtest, hättest du den Post besser lesen sollen... Ironie und Humor sind dir möglicherweise fremd... *noahnung*

Der Ausdruck ist irreführend bzw. zu akademisch. 99% der User hier wissen doch gar nicht was "discrete" in den möglichen Übersetzungen heisst und können nur erahnen was es im konkreten Kontext bedeutet.

Ich habe lediglich auf eine bessere Übersetzung hingewiesen.
.
EDIT :
.



Du solltest erstmal lesen, bevor du hier überflüssige Sekrete absonderst...

Les du bitte lieber nochmal deinen Post und überdenke deine Aussage. Du hast das Wort "diskrete" als falsche Übersetzung in der News hingestellt. Ach, entschuldige... sollte wohl lieber Nachricht schreiben, damit es auch jeder versteht :P
Wäre überall alles für die "dümmsten" Leute geschrieben, wäre unsere Gesellschaft nicht da wo sie heutzutage steht. Nachfragen, oder Nachforschen ist doch allein mit Hilfe des Internets eine Frage von wenigen Sekunden.

Edit: Außerdem solltest du sowas lieber per PM mit dem Moderator klären, wie das auch in den Regeln nachzulesen ist.
 
Abwarten, mit dem R3X0 waren die auch mal weit und dann gab es ein Versagen nach dem anderen.

Bei Ati lernt man nicht aus Fehlern, sonst hätten die schon lange ihr CF Modell umgebaut, denn damals gab es keine Microrukler bei zwei GPU auf einer Platine. Damals musste auch kein Programm extra dafür optimiert werden.

Und weil die nicht aus Fehlern lernen werden die versagen bei der nächsten GPU Generation.

Die X1900 und 1950 Serie war auf deutlich schneller und besser als die flimmernde Geforce 7er Serie.... ich sag nur noch gx2 ;)

Die Geforce 6 (eine 6800 besitze ich) ist wohl auch kaum besser als eine Radeon 9800er. Da hat NV erst mal ATI eingeholt ohne wirklich zu deutlich überhohlen, da NV die Gefoce 5 so verbockt hatte war auch nicht mehr zu erwarten.

Dann beliebt nur noch die G80 wie wirklich gut war, wie die damals der r300 von ATI.

Wie man sieht ist alles nur abhängig von Blickwinkel ;)

Fakt ist ATI hatte mit dem 9x00er Serie die Oberhand und NV mit der 8x00er.
 
Zurück
Oben Unten