CeBIT: Das Phantom AMD R600

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Bereits Anfang November letzten Jahres hat NVIDIA seine neue GeForce 8800 Serie präsentiert (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1163025600">berichteten</a>) und konnte damit den ersten Direct3D10-Chip für Microsofts DirectX 10 Schnittstelle liefern. Zwar wird DirectX 10 derzeit nur von Windows Vista und nicht von der wesentlich größeren Windows XP Basis unterstützt und das Unified Shader Model der 8800 zeigt bis dato seine Vorzüge meist nur in NVIDIA-Demos, aber dennoch kann man nicht verleugenen, dass NVIDIA derzeit in Sachen Performance-Schnitt und vor allem Zukunftssicherheit die Nase vorne hat.

Der erste D3D10-Chip von ATI - pardon AMD natürlich - mit Codenamen R600 lässt nun schon eine Weile auf sich warten. Das Weihnachtsgeschäft ist AMD/ATI damit schon durch die Lappen gegangen und zuletzt kamen auch noch <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173282456">mysteriöse Verzögerungen</a> mit merkwürdig anmutenden <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1172244573">Begründungen</A> hinzu. Zuerst hieß es, der Chip sollte Ende März eingeführt und auf der CeBIT zu bewundern sein. Doch der R600 entwickelte sich bereits am ersten Messetag zum Phantom der CeBIT 2007. Zwar soll AMD ein paar Samples im Hinterzimmer haben, diese - so hört man - sollen jedoch nur den Kartenherstellern gezeigt werden. Diese sollen dafür eine Vertraulichkeitsvereinbarung (NDA) unterzeichnen haben müssen, die eine öffentliche Vorführung strengstens untersagt. Für die Presse - womöglich gar mit Kamera bewaffnet - oder die Öffentlichkeit bleibt der R600 (oder X2900 XTX wie die Karten dann später im Verkauf vermutlich heißen werden) unsichtbar. Zumindest ist als wahrscheinlicher Termin nun der Mai in Umlauf - allerdings ließ sich niemand festlegen in welchem Jahr...
 
aber dennoch kann man nicht verleugenen, dass NVIDIA derzeit in Sachen Performance-Schnitt und vor allem Zukunftssicherheit die Nase vorne hat.

Also diese Aussage halte ich für sehr gewagt. An Hand der Verfügbarkeit dieses Chips den Technologiestand des Unternehmens festzumachen ist mehr als nur spekulativ. Erstens muss sich noch zeigen, was DX10 wirklich bringt, zweitens möchte sich Vista erstmal durchsetzen und drittens hat auch NVidia mit den DX10-Treibern noch so seine argen Probleme.
 
Zumindest ist als wahrscheinlicher Termin nun der Mai in Umlauf - allerdings ließ sich niemand festlegen in welchem Jahr...
Naja, ich denke mal nächstes Jahr wirds dann schon was, die ersten DX10 Games wird es schon geben, Vista wird XP als OS Nummer 1 abgelöst haben und AMD bietet den Barcelona Quad als Enthusiasten-Plattform (natürlich 2 davon auf der Quad-FX Plattform, die bis dahin auch Released ist) an. Dann kann sich AMD auch nicht mehr raus reden, das DX10 Grakas keinen Sinn hätten, wie sie es Ende des letzen Jahres gemacht haben.

Noch besser: AMD Überspringt den R600 und stellt gleich den R700 oder 800 vor, das wäre mal etwas. Damit hätte AMD schon in einer Beziehung die Führung übernommen...

*hust*
 
Also diese Aussage halte ich für sehr gewagt. An Hand der Verfügbarkeit dieses Chips den Technologiestand des Unternehmens festzumachen ist mehr als nur spekulativ.
Solange der R600 nicht auf dem Markt ist, existiert er defacto auch nicht. Also ist das, was auf dem Markt ist, der Technologiestand. AMD hat den Hammer auch bereits 2001 angekündigt, 2002 war er auch auf der CeBIT "schon" zu sehen (im Gegensatz zum R600 heute); trotzdem ist er erst 2003 erschienen und es wird wohl niemand bestreiten, dass 2002 mit das schlimmsten Jahr für AMD war und jeder musste zugeben, dass Intel damals das bessere Produkt hatte, da der Hammer schlichtweg noch nicht da war.

Mit den Grafik-Chips ist es zwar nicht ganz so schlimm wie damals, da die ATI-Chips ja wenigstens einigermaßen noch mithalten können (im Gegensatz zum Athlon XP damals), trotzdem erinnert mich der Verlauf doch sehr an damals...
 
Also diese Aussage halte ich für sehr gewagt. An Hand der Verfügbarkeit dieses Chips den Technologiestand des Unternehmens festzumachen ist mehr als nur spekulativ. Erstens muss sich noch zeigen, was DX10 wirklich bringt, zweitens möchte sich Vista erstmal durchsetzen und drittens hat auch NVidia mit den DX10-Treibern noch so seine argen Probleme.


NVidia hat zumindestens nicht so eine große, stromhungrige Karte im Angebot,
und selbst die ist zumindestens im Angebot...
 
Hi,

kurz: Nvidia ist eine Generation vor ATI (GPU Abteilung von AMD;) )derzeit.

Das Hickhack und die vielen Verzögerungen des R600 sind natürlich kein Ruhmesblatt.
Viele trauen dem R600 dadurch nicht mehr den großen Erfolg zu.

Greetz
neax;)
 
NVidia hat zumindestens nicht so eine große, stromhungrige Karte im Angebot,
und selbst die ist zumindestens im Angebot...
also wenn die PCGH News stimmen, wird der R600 in etwa die Größe der X1x00 karten besitzen
zum Stromverbrauch steht dort aber nichts

http://www.pcgameshardware.de/?article_id=571567

achja und erste bilder der Midrange und lowend Karten auf R600 Basis sind auch schon verfügbar

http://www.pcgameshardware.de/?article_id=571589
 
Hi,

ich fahre morgen zur CeBit. Werde zum ATi Stand gehen, mir ne Story ausdenken (bin Kartenhändler) und hoffentlich nen paar Fotos vom r600 machen 8) Gaaanz unauffällig ^^
 
Angeblich hat sich der R600 verzögert weil er doch in 65nm kommt.
 
also wenn die PCGH News stimmen, wird der R600 in etwa die Größe der X1x00 karten besitzen
zum Stromverbrauch steht dort aber nichts

http://www.pcgameshardware.de/?article_id=571567

PCGH schrieb:
Update:
Mittlerweile wurden wir gebeten, die Bilder der R600-Demo wieder zu entfernen - dieser Bitte sind wir natürlich umgehend nachgekommen. Sobald es etwas neues gibt, halten wir Sie natürlich auf dem Laufenden.

Gibt es die Bilder noch irgendwo im Netz? Oder im Google-Cache? Ich hab schon alles mögliche durchsucht, aber nichts gefunden...
 
die Bilder waren von der neuen Ruby Techdemo
ka obs die noch irgendwo gibt aber ich denke eher nicht...
 
gibt es den Produkt- bzw. Markennamen ATI jetzt eigentlich gar nicht mehr?

AMD R600 klingt total daneben und irgendwie kann ich mich nicht daran gewöhnen
 
Doch sicher, der aktuelle Stand ist, daß nur die Ati-Chipsätze als "AMD 690G" usw. vermarktet werden, die Grafikchips aber weiterhin unter dem Namen Ati Radeon angeboten werden.
 
Also diese Aussage halte ich für sehr gewagt. An Hand der Verfügbarkeit dieses Chips den Technologiestand des Unternehmens festzumachen ist mehr als nur spekulativ. Erstens muss sich noch zeigen, was DX10 wirklich bringt, zweitens möchte sich Vista erstmal durchsetzen und drittens hat auch NVidia mit den DX10-Treibern noch so seine argen Probleme.
das problem ist doch, dass ati ähnlich wie bei der klassischen radeon bis hin zur 8500 immer zeitlich ins hintertreffen gerät. damals waren die karten zwar nicht schlecht, technisch war ati aber meistens mindestens eine halbe generation hinterher. wenn nvidia den zeitlichen vorsprung auch in einen technischen vorsprung umzusetzen vermag, dann läuft ati bzw. amd gefahr, technisch wieder hinterherzuhinken.

und wenn man tatsächlich highend, mittel- und einstiegsklasse gleichzeitig auf den markt bringen wird, kann nvidia bis dahin konkurrenzlos die early adopter im hochpreis-bereich "abernten".
 
Angeblich hat sich der R600 verzögert weil er doch in 65nm kommt.
Will Ati jetzt doch nicht ihren r600 an den Mann bringen oder wie? Auf 65nm stelle ich mir so einen Monsterchip nicht grad glücklich vor, jedenfalls noch nicht. Der Yield wird dann imho wohl am Boden liegen. Naja dann gibts eben eine Menge Radeon x2900 xyz Press Edition ;) *buck*
Wenn es Ati doch vernünftig schafft: "Hut ab"
 
Ich bin heute auf den CebIt gewesen, vom R600 KEINE Spur.*suspect*
 
das problem ist doch, dass ati ähnlich wie bei der klassischen radeon bis hin zur 8500 immer zeitlich ins hintertreffen gerät. damals waren die karten zwar nicht schlecht, technisch war ati aber meistens mindestens eine halbe generation hinterher. wenn nvidia den zeitlichen vorsprung auch in einen technischen vorsprung umzusetzen vermag, dann läuft ati bzw. amd gefahr, technisch wieder hinterherzuhinken.

Das sehe garnicht so. Das ist nur der ewige Marketingtrick von NVidia. Sie lassen die anderen glauben, daß sie technologisch vorneweg sind, bloß weil sie meist als erste neue Feature einbauen, die bei der gerade aktuellen Leitungsfähigkeit aber nahezu unnütz sind. Das war schon im Kampf gegen 3dfx so, wo die 3dfx-Grafik in 16bit immernoch tausendmal besser/schöner war, als die von NVidia... aber hey! NVidia hatte voll krass schon 32bit. Dann das T&L und das AA der GF256... waren anfangs auch nur Bullshitbingo-Feature und begannen erst zwei Generation später, als es andere auch hatten, zu greifen. Das dolle Antialiasing der GF256 war erst mit der GF3 bzw. GF4 derart leitungsfähig, daß man AA bei älteren Games endlich mal zuschalten konnte, ohne die Auflösung auf SVGA runtertreiben zu müssen.
Und als dann die 9700er- bzw. 9800er-Klasse raus kam, was war das für ein Wow-Effekt gegenüber meiner GF4 beim Umstieg auf ein 9800pro. Das Antialiasing konnte man endlich mal so nennen, die anisotrope Filterung war einfach spitze, die Texturqualität... und das alles auch bei akzeptabler Geschwindigkeit. Kein GF-Chip konnte zu dem Zeitpunkt wirklich mithalten.
Dann kam dieses alberne Shaderwettrennen. Die GF6 hatte Shaderklasse 3.0, die x800 nur 2.0+. Na und?! Was nützte mir 3.0, wenn die Chips sowas erst in der GF7er oder gar GF8er Reihe schnell genug für entsprechende Spielereien bereitstellen können. Und so ist es immer mit NVidia.

Und die Leute fallen immer wieder drauf rein. Blablabla ...NVidia hat uneinholbaren Vorsprung... super goile Feature... hat kein anderer... Elementare Anwenderfrage: Bin ich jetzt auf den Abstellgleis des Lebens, weil mein Rechner keine so zukunftsweisende NView-Power-Feature hat? ...*zitter,heul*... blabla!

PS: Und die Masse an Geld wird immer noch mit Bürografik gemacht (siehe Intel) und da ist der AMD690G im Rennen...
 
Zuletzt bearbeitet:
das problem ist doch, dass ati ähnlich wie bei der klassischen radeon bis hin zur 8500 immer zeitlich ins hintertreffen gerät. damals waren die karten zwar nicht schlecht, technisch war ati aber meistens mindestens eine halbe generation hinterher. wenn nvidia den zeitlichen vorsprung auch in einen technischen vorsprung umzusetzen vermag, dann läuft ati bzw. amd gefahr, technisch wieder hinterherzuhinken.

und wenn man tatsächlich highend, mittel- und einstiegsklasse gleichzeitig auf den markt bringen wird, kann nvidia bis dahin konkurrenzlos die early adopter im hochpreis-bereich "abernten".


Da hast du wohl die 9700er Generation und die 9800er vergessen. Und vorallem war das ein größerer Technologievorsprung als eine Generation ;)
 
Das sehe garnicht so. Das ist nur der ewige Marketingtrick von NVidia. Sie lassen die anderen glauben, daß sie technologisch vorneweg sind, bloß weil sie meist als erste neue Feature einbauen, die bei der gerade aktuellen Leitungsfähigkeit aber nahezu unnütz sind. Das war schon im Kampf gegen 3dfx so, wo die 3dfx-Grafik in 16bit immernoch tausendmal besser/schöner war, als die von NVidia... aber hey! NVidia hatte voll krass schon 32bit. Dann das T&L und das AA der GF256... waren anfangs auch nur Bullshitbingo-Feature und begannen erst zwei Generation später, als es andere auch hatten, zu greifen. Das dolle Antialiasing der GF256 war erst mit der GF3 bzw. GF4 derart leitungsfähig, daß man AA bei älteren Games endlich mal zuschalten konnte, ohne die Auflösung auf SVGA runtertreiben zu müssen.
Und als dann die 9700er- bzw. 9800er-Klasse raus kam, was war das für ein Wow-Effekt gegenüber meiner GF4 beim Umstieg auf ein 9800pro. Das Antialiasing konnte man endlich mal so nennen, die anisotrope Filterung war einfach spitze, die Texturqualität... und das alles auch bei akzeptabler Geschwindigkeit. Kein GF-Chip konnte zu dem Zeitpunkt wirklich mithalten.
Dann kam dieses alberne Shaderwettrennen. Die GF6 hatte Shaderklasse 3.0, die x800 nur 2.0+. Na und?! Was nützte mir 3.0, wenn die Chips sowas erst in der GF7er oder gar GF8er Reihe schnell genug für entsprechende Spielereien bereitstellen können. Und so ist es immer mit NVidia.

Und die Leute fallen immer wieder drauf rein. Blablabla ...NVidia hat uneinholbaren Vorsprung... super goile Feature... hat kein anderer... Elementare Anwenderfrage: Bin ich jetzt auf den Abstellgleis des Lebens, weil mein Rechner keine so zukunftsweisende NView-Power-Feature hat? ...*zitter,heul*... blabla!

PS: Und die Masse an Geld wird immer noch mit Bürografik gemacht (siehe Intel) und da ist der AMD690G im Rennen...

Ja stimmt schon. Man darf aber net vergessen das die Karten oft auch wesentlich schneller sind als die konkurrenz (zumindest so lange bis die Konkurrenz nachziehen kann). Z.b braucht derzeit keiner DX10, aber eine 8800GTX ist derzeit wesentlich schneller als das was es bei ATI zu kaufen gibt. Den AMD64 haben viele 2003 auch nicht wegen seiner 64bit fähigkeit gekauft
 
Zuletzt bearbeitet:
Ob dieser Chip jetzt 3 Monate früher oder später kommt ist mir total egal, denn wer braucht den einen R600 zum jetzigen Zeitpunkt ?

Sollen sie mal lieber in Ruhe vernünftig fertig bauen das Teil und noch was am Stromverbrauch machen.
 
Zurück
Oben Unten