Grafikchip-Roadmap AMD und NVIDIA

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
In den letzten Tagen gab es wieder einmal zahlreiche Gerüchte um kommende Grafikchips von AMD/ATI und NVIDIA. Besonders von Interesse ist dabei der Start der 40nm-Fertigung.

Bislang hieß es dazu immer, dass man erst Mitte 2009 so weit sei. Neueste Spekulationen sprechen aber bereits vom Ende des ersten Quartals. Auf Basis verschiedener Quellen ergibt sich in etwa folgende Roadmap:

<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=12654&stc=1&d=1225703758"></center>
<b>Quellen:</b>
<ul><li><a href="http://ht4u.net/news/2462_nvidia_schlaegt_mit_neuen_gpus_zurueck_gtx_270_gtx_290_und_neue_gx2_kurz_vor_dem_start/" target="b">NVIDIA schlägt mit neuen GPUs zurück? GTX 270, GTX 290 und neue GX2 kurz vor dem Start</a></li><li><a href="http://www.hardware-infos.com/news.php?news=2473" target="b">Nvidia: GT206, GT212, GT216 und GT300</a></li><li><a href="http://www.3dcenter.org/artikel/erste-umfangreiche-infos-zu-atis-rv870-chip" target="b">Erste umfangreiche Infos zu ATIs RV870-Chip</a></li><li><a href="http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/83-rv870-neue-details?lang=de" target="b">RV870 - Neue Details</a></li><li><a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=10207&Itemid=65" target="b">Nvidia working on dual GPU card </a></li></ul>
 
Am Papier sieht es für AMD gut aus.
Bin schon gespannt, ob sich mit Hilfe der OpenCL Unterstützung auch High-Performance DC-Clients programmieren lassen (Stichwort GPGPU). Momentan ist ja nicht so nett, welchen Performancevorteil nVidia-Grafikkarten bei Folding@home im Gegensatz zu den AMD-Verwandten aufweisen können.

MfG
 
Am Papier sieht es für AMD gut aus.
Bin schon gespannt, ob sich mit Hilfe der OpenCL Unterstützung auch High-Performance DC-Clients programmieren lassen (Stichwort GPGPU). Momentan ist ja nicht so nett, welchen Performancevorteil nVidia-Grafikkarten bei Folding@home im Gegensatz zu den AMD-Verwandten aufweisen können.

MfG

Also ich bin kein Experte auf dem Gebiet, aber mir scheint es fast so, dass NVIDIA mit Cuda auf einem toten Gaul reitet.

Wäre NVIDIA im Desktop-Bereich noch so dominant wie vor einem Jahr, könnten sie wahrscheinlich als Standard durchdrücken.

Nach allem was man so liest, soll OpenCL aber wesentlich leichter zu programmieren sein und was man auch nie unterschätzen darf, ist die Tatsache, dass Apple sich bereits für OpenCL stark macht.
 
Nach allem was man so liest, soll OpenCL aber wesentlich leichter zu programmieren sein und was man auch nie unterschätzen darf, ist die Tatsache, dass Apple sich bereits für OpenCL stark macht.
Wo ist das Problem ... nV ist auch bei OpenCL mit dabei, die wetten auf mehrere Pferde :)

@Shinzon:
Die nV Chips profitieren v.a. auch vom hohen Shadertakt. Ati ist da bei um die 800 MHz Chiptakt .. nV hat um die 1600 MHz Shadertakt .. kein Wunder dass nV schneller ist ;)
Ausserdem hat nV noch kleine Caches in den Chips, Ati hat das erst seit RV7xx .. die scheinen aber entweder nichts zu bringen, oder eben noch nicht genutzt zu werden, denn die Leistung von RV730 und RV670 Chips mit jeweils 320 Shadern ist ziemlich gleich. Demnächste solls nen neuen Ati GPU Client geben, vielleicht hilft der ja was *noahnung*

Edit:
Iiiihh .. das AMD in rot sieht ja schlimm aus, wäre dafür das durch Ati zu ersetzen *lol*


ciao

Alex
 
Zuletzt bearbeitet:
Ich bin für blau! ;D

AAAAAAAAAAAAAAAHHHHHHHHHHHHHHHHHHHHHHHHHHHHH NNNNNNEEEEEEIIIIIIIIIIIINNNNNNNN


@Topic
Nette Sache, obwohl ich die 512Bit Speicherinterface für etwas übertrieben halte. Mit der Speicherbandbreite sind die ATI-Karten doch immer recht sparsam, sprich brauchen nicht so viel.... *noahnung*
 
Wenn die Daten stimmen muss für einen hohen Stromverbrauch eine 5870 X4 her, damit die ganzen 1000 Watt Netzteil User ausgelastet werden. Und damit die 2000 Watt Netzteile ausgelastet werden gibts dann ein Quad CrossFire Verbund aus 4 5870X4 Karten, 16 Kerne rechnen besser als einer. Man stelle sich vor, Crysis Kriegskopp in 1920x1200 mit 32AA und 16AF mit 80 Frames. Meine 3850/256 reicht mir erstmal bis Ende 2009, dann kann ich sicher nicht mehr alles auf Ultra High spielen, aber es wird reichen.
 
@Topic
Nette Sache, obwohl ich die 512Bit Speicherinterface für etwas übertrieben halte. Mit der Speicherbandbreite sind die ATI-Karten doch immer recht sparsam, sprich brauchen nicht so viel.... *noahnung*
Das wird wohl ein "Abfallprodukt" .. da steht ja MCM, soll heißen, das wird quasi ne X2 auf niedrigeren Level, eben auf Chipebene. Die nehmen also z.B. 2 RV770 Chips und basteln die zusammen ... ergibt ein 2x256bit Speicherinterface -> 512bit.

Später wollen sie laut der Auflistung, dann nochmal ne "klassische" X2 bringen .. AMD mausert sich langsam zum Verpackungskünstler ^^

ciao

Alex
 
Nette Roadmap.

Ich werfe aber mal die Frage in den Raum: Für welche Spiele brauch ich so eine GPU/Grafikkarte denn noch?
Es kommen immer weniger Spiele raus die man sich kaufen kann. Entweder sind die Spiele technisch schlechter als die Konsolenversionen oder aber mit zu viel DRM.

Leider! Hoffe das wird keine Sackgasse.
 
Das wird wohl ein "Abfallprodukt" .. da steht ja MCM, soll heißen, das wird quasi ne X2 auf niedrigeren Level, eben auf Chipebene. Die nehmen also z.B. 2 RV770 Chips und basteln die zusammen ... ergibt ein 2x256bit Speicherinterface -> 512bit.

Später wollen sie laut der Auflistung, dann nochmal ne "klassische" X2 bringen .. AMD mausert sich langsam zum Verpackungskünstler ^^

ciao

Alex


Dachte mich mir auch schon aber irgenwie wie passt das dann net mit den 1,5Tflops...

Wenn die "alte" 4870er auf 1,2 Tflops mit 800 Shadern kommt, und die 1000 bei der 5870er stimmen wär man bei 1,5Tflop, das ist stimmig. Durch verkleiner der Struktur von 65 auf 40nm wurde bisher immer der Takt angehoben, da aber bisher kein Gerücht >1,5Tflop aufkam. Heist das entweder sind die 1000 Shader falsch oder der Shrink wird dann nur zum Stromsparen genutzt. Allerdings wäre das anheben des Taktes billiger als die 200 Shader.

Zurück zum Shrink und den Gerüchten, die besagen das zwei RV870er auf eine Package und somit 3,0 Tflop ermöglichen sollen, erst dann würde das 512bit (2x256bit) Interface Sinn machen.
Denn ein RV870er wäre mit 512bit + DDR5 Interface wieder wie der 2900xt Chip mit zuviel Bandbreite Ausgestattet. Wenn dann eine interne Kommunikation statt findet (würde) und ohne Crossfire (also (fast) 100% Skalierung, ohne Treiber Seitige Unterstützung) bei auskommt erwartet uns ein Sprung wie vom RV670 -> RV770 also FAKTOR 2,5 :o

Ende des Jahres 2009 wäre dann mit einer nochmals fast Verdoppelung der Geschwindigkeit zu rechnen, laut der Map ^^

Irgenwie kann ich dass mir nicht so ganz vorstellen :] Ich denke das 512bit Interface ist falsch, es wird wieder ein 256er das obige Szenario ist zu utopisch...
 
Nette Roadmap.

Ich werfe aber mal die Frage in den Raum: Für welche Spiele brauch ich so eine GPU/Grafikkarte denn noch?
Es kommen immer weniger Spiele raus die man sich kaufen kann. Entweder sind die Spiele technisch schlechter als die Konsolenversionen oder aber mit zu viel DRM.

Leider! Hoffe das wird keine Sackgasse.

Technisch schlechter als die konsolenversion? Was genau meinst du damit? Die optik kanns ja nicht sein. Farcry2 ist ein prima beispiel, es wurde eher auf konsolen ausgerichtet und dementsprechend mau sehen dann auch die texturen aus. Der trend geht aber leider aktuell immer mehr dahin, dass die PC versionen teilweise so schwach (im vergleich dazu was möglich wäre) aussehen wie die konsolen variante - um zeit und geld zu sparen.

Und DRM ist auf konsolen auch nur kein thema, weil man dort die spielchen nicht kopiert sondern einfach von gerät zu gerät trägt - und dafür aber auch immer noch deutlich mehr bezahlt (Fallout3 ist ein aktuelles preis beispiel, aber nicht mal ansatzweise so unverschämt in sachen DRM wie Spore). Die lösung hier ist einfach: man kauft es nicht und belohnt aber die studios und publisher, die es eben nicht so machen, indem man ihre titel kauft. Umerziehung über die bilanz. ;)

Und was die aussage angeht, "immer weniger spiele die man sich kaufen kann", dass ist deine persönliche sicht und meinung. Ich kaufe mir vielleicht 1-2 spiele im jahr, dass aber aus zeitmangel und nicht weil es keine spiele gibt die es wert wären gekauft zu werden. Das ist eine rein subjektive entscheidung. Genau wie mit den filmen.. alles heult wie scheisse das zeugs mittlerweile ist und trotzdem gehen die leute nich massenweise ins kino oder kaufen sich die DVD.
 
@Fusseltuch
Ich meine das so.
In den letzen Jahren gab es so gut wie keine Spiele am PC die von Anfang an gut liefen.
Jedes Spiel am PC hatte Minimum 3 Patche von 100 - 1000 MB. Dann noch dieses dämliche DRM was man beim deinstallieren nicht gleich wieder mit los wird, weil es ja sein könnte das ein anderes Spiel den auch braucht und so weiter.
Der ehrliche Kunde ist auch oft der Blöde, weil man trotz original DVD/CD das Spiel nicht starten kann weil irgend was verhindert das der Schutz sein OK gibt.

Bei den Konsolen gibt es das auch, aber da Stört es nur bei den Downloadspielen, aber nicht bei den CD/DVD.. Spielen, weil diese laufen oder man kann es dem Hersteller wieder auf den Tisch knallen, sollte die Konsole nicht modifiziert sein.

Ganz davon ab sind die PC spiele meistens eh programmiertechnisch nicht das Gelbe vom Ei.
Mann hat einen vermeintlich starken PC (z.B. siehe mein System), aber das Spiel ruckelt und läuft max auf mittlerer Stufe, wenn überhaupt. Die Konsolenspiele sehen dann aber leider besser aus. Dort wird immer das Maximum rausgeholt. Bim PC nicht mal das Mittlere an dem was möglich wäre.
Ich brauch am PC 8 GB RAM (etwas übertrieben) damit es nicht 3 Stunden braucht bis es los geht oder überhaupt mal läuft. Eine GPU die von der Leistung her eigentlich genau so schnell oder schneller ist wie die Konsolenversion reicht dann oft nicht mehr um das Gleiche oder etwas mehr an Grafikpracht zu sehen was man von PS360 kennt.
Das war es auch was ich meinte.

Und daher auch meine Frage. Für welche Spiele braucht man denn jetzt noch diese Grafikmonster, wenn wie du schon sagst alles für die Konsolen kommt?
 
Und daher auch meine Frage. Für welche Spiele braucht man denn jetzt noch diese Grafikmonster, wenn wie du schon sagst alles für die Konsolen kommt?
Interessante Frage ja ... geht man davon aus, dass sich demnächst Raytracing etablieren wird, könnten die High-End Karten nutzlos werden, da sie das noch nicht können.

Erfahrungsgemäß bringen high-end Karten aber erstwas mit der (über)nächtsten Spielegeneration, dauert schließlich bis echtes DX11 raus kommt.

Wenn jetzt statt DX11, raytracing Spielchen erscheinen ... Pech gehabt.

Aber das wird wohl noch ne Weile dauern ... Intel hat Ihre Larrabee Karte ja auf 2010 verschoben, da kommen sicherlich noch DX11 Spiele.

ciao

Alex
 
@Opteron
An das Raytracing und Co habe ich nicht mal gedacht.
Auch nicht an Direct X 11 und so.

Das Intel was verschiebt was mit Grafik zu tun hat wundert mich nicht wirklich.
Ob die es jamal schaffen eine GPU oder ähnliches zu bauen samt Treiber die was taugen zum Arbeiten und oder Spielen bezweifle ich.
Bis jetzt taugen die Chipsatz Grafikkarten ja immer noch nichts, wenn es um 3D geht. Ganz zu schweigen von der Treibern. Das sagte so gar Apple und deshalb verbauen sie wieder ATI und NV.


Ich fragte welche für welche Spiele, wenn alles mehr in Richtung Konsolen oder spezielle Gaming HW geht.
 
@ Thr Crow

PC Spiele sind ja zum Glück immer noch billiger als ihre Konsolen Pendants. Und das teilweise sogar 20€ pro Titel.
Desweiteren siehts auf einem PC immer besser aus als auf der Konsole. Wenn ich mir das Geruckel und die Bildhänger und verschobenen Bilder bei der PS3 von meinem Kumel anschaue, dann wird einem schlecht. Also nicht bei allen Titeln aber Assassins Creed ist da ganz dicke dabei ;)

Aber es ist halt Geschmackssache ob, ob man sich eine Konsole kauft oder lieber PC bastelt ;)
 
Zurück
Oben Unten