News Computex: AMD zeigt ersten DirectX 11 Grafikprozessor

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Auf einer Pressekonferenz im Rahmen der Computex hat AMD heute den ersten DirectX 11 Grafikprozessor vorgestellt.

<blockquote>"AMD has a long track record of delivering pioneering features that have gone on to become mainstays in the DirectX experience, and we’re doing it again with two mature, AMD-developed technologies in DirectX 11 – tessellation and the compute shader – both of which enable a better DirectX 11 experience for consumers,” said Rick Bergman, Senior Vice President, AMD Products Group. “Today, we’re previewing AMD’s DirectX 11 graphics processor to build enthusiasm for this key technology so developers will have games available at launch and shortly thereafter. With the benefits it delivers to gaming, applications and Windows 7, developers are lining up to get their hands on our hardware, and we’re confident that consumers will too.”</blockquote>


<center><object width="560" height="340"><param name="movie" value="http://www.youtube.com/v/-eTngR6M37Q&hl=de&fs=1&color1=0x234900&color2=0x4e9e00"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/-eTngR6M37Q&hl=de&fs=1&color1=0x234900&color2=0x4e9e00" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="560" height="340"></embed></object></center>

<center><img src="http://farm3.static.flickr.com/2471/3589168101_3485634ca3.jpg?v=0"></center>

<b>Zur Pressemitteilung:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3955730#post3955730"> AMD Demonstrates World's First Microsoft DirectX 11 Graphics Processor </a>

Die ersten Karten mit den DirectX 11 Grafikchips sollen Ende 2009 verfügbar sein.
 
Fein - und wenn dann (ausnahmsweise..) auch die Serienprodution einigermaßen in time startet, noch feiner :D

BTW: Hat jemand ne Ahnung, wer der Typ in der Flash-Demo is *kopfkratz Der Nvidia-CEO schaut jedenfalls anders aus *chatt*
 
Die Überschrift ist etwas irreführend, denn lauffähige DX11-Chips hat AMD noch nicht. Es wurden lediglich ein paar DX11-Features demonstriert, um einen Ausblick auf die damit verbundenen Möglichkeiten geben.

Das sagt heise dazu:
http://www.heise.de/newsticker/AMD-...nd-kuendigt-Notebook-CPUs-an--/meldung/139773


laut cb war es eine lauffähige dx11 grakifkarte.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/juni/amd_directx-11-grafikkarte/

PS: ist eine cb-eigene quelle, also von cb sind 2 leute in taiwan live dabei.
 
Zuletzt bearbeitet:
Und welche GPU ist das jetzt? *noahnung*
Auf dem PR-Blättchen ist die Rede von TSMCs AMD-Partnerschaft in Erinnerung zur ersten DirectX-11- und 40 nm-GPU ... ja, das ist doppeldeutig. Der Wafer ist wohl symbolischer Platzhalter für zwei Meilensteine.

Nachtrag:
... showing off not only an Cypress (commonly mis-known as R870) wafer, but also working silicon ...
Also Charlie Demerjian, war als Journalist vor Ort in Taipeh, dann sehen wir dort auf den Wafer AMDs kommenden DirectX-11-Chip.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Für einen 300mm Wafer in 40nm scheinen mir die einzelnen Die recht groß. Vielleicht wird es ja doch ein R8xx und kein RV8xx.
 
Für einen 300mm Wafer in 40nm scheinen mir die einzelnen Die recht groß. Vielleicht wird es ja doch ein R8xx und kein RV8xx.
Zumindest ein gutes Zeichen, dass so große DIEs schon in Vorserie fertigbar sind.

Aber auch ein Zeichen, dass die GPUs immer mehr Transistoren bekommen während bei CPUs eher gewisse Stagnation (geringer Quad-Coreanteil bei Intel) zu beobachten ist.
 
Für einen 300mm Wafer in 40nm scheinen mir die einzelnen Die recht groß. Vielleicht wird es ja doch ein R8xx und kein RV8xx.
Hast Du mal die Dies gezählt? Also das sind meiner Zählung nach 25 x 19 Dies auf dem 300mm Wafer. Daraus ergibt sich rechnerisch ein 12 x 15,8 = 190 mm² Die (abzüglich Verschnitt). Das ist eindeutig RV irgendwas (angeblich gibt es intern diese Bezeichnung ja gar nicht). Bei perfekter Skalierung des Prozesses und ansonstem vergleichbarem Layout zu RV790 (282mm²) würden sich nur etwa 1,2-1,3 Milliarden Transistoren ergeben. Dies ist schon ziemlich sparsam und würde wirklich auf nur etwa 1200 Streamprozessoren hindeuten (oder sogar noch weniger). Die Hochrechnung von RV740 (137mm², 826 Millionen Transistoren) ergibt dann sogar unter 1,2 Milliarden Transistoren. Verglichen mit den 2,4 Milliarden des GT300 auf knapp 500mm² ist das geradezu winzig. Also wenn das der größte Chip sein sollte, setzt AMD scheinbar wirklich voll auf MultiGPU.

Edit:
Da der Chip nach Abzug des Verschnitts eher nur 180mm² hat, ergeben sich schätzungsweise knapp 1,1 Milliarden Transistoren. Angesichts der DX11 Features deutet dies allenfalls auf eine sehr moderat gestiegene Shaderzahl hin. Wie wäre es mit 12 SIMDs mit den bekannten 16 VLIW (80 SPs), also 960 SPs?
 
Zuletzt bearbeitet:
nunja, dafür werden die jungs bei ati nicht bei jedem wafer blut und wasser schwitzen müssen, so wie die jungs von nvidia.
wenn der kleine chip der 4770 in 40nm schon so ne schlechte yield hat, mag man sich nicht vorstellen, wie übel das bei nem 2,4 milliarden monster wird.
nvidia konnte ja jetzt schon mit dem GT200 im gegensatz zu ati mit dem rv770, keinen gewinn einfahren, sondern nur verluste.
 
warum sollten die den richtigen RV8xx Wafer in alle Kameras halten? ???
Damit NV weiß womit zu rechnen ist? ???
Kann ich mir nicht vorstellen! Vielleicht ist es ja das Mittelklasse Modell oder irgendwas ganz anderes.
Viel interasanter ist doch, dass man bereits funktionierende Hardware in der Hand hat.
 
warum sollten die den richtigen RV8xx Wafer in alle Kameras halten? ???
Damit NV weiß womit zu rechnen ist? ???
Das weiß nvidia wahrscheinlich sowieso schon seit einiger Weile. Da sowohl ATI als auch nvidia bei TSMC fertigen lassen, weiß der jeweils andere wahrscheinlich spätestens dann Bescheid, wenn das Tape-Out des Design erfolgt (sprich, wenn es bei TSMC ankommt). Glaubst Du etwa, kein einziger Mitarbeiter dort quatscht? Im Notfall kann man auch mit ein paar Anreizen nachhelfen :]
 
@Gipsel: 1200 Shader sind immerhin 50% mehr als aktuell, und das in einem Chip, der dann vielleicht thermisch noch leichter beherrschbar ist als der RV790, so daß auch ein Dual-Karte relativ problemlos machbar ist. Rechne noch ein paar Gewinne durch Architekturverbesserungen dazu und es sieht ganz gut aus.

Wenn Charlie Demerian vom INQ mit seiner These (http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture) recht hat, dann muß AMD wenig ändern, um DX11 einzuführen, Nvidia dagegen muß angeblich viel dazu- und umbauen. Er vermutet auch, daß der GT300 stark bei GPGPU sein wird, was aber für die Spieleperformance nur überflüssiger Ballast ist, Diegröße und Stromverbrauch aber negativ beeinflußt. Wenn der also so ein Monsterchip wird, dann ist eine Dualkarte daraus erstmal unmöglich, und der Einzelchip könnte sich mit der Dualkarte von AMD mit dann zusammen 2400 Shadern schlagen lassen.
Erinnert mich irgendwie an das mit der Radeon 8500 eingefuehrte TruForm per N-Patch Hardware Tessellation (?)
Naja, ist ja auch dasselbe. Nur mit dem Unterschied, daß das jetzt in DX11 mit drin ist und nicht nur eine Sonderlösung mit speziell notwendiger Unterstützung ausschließlich für Radeonkarten wie damals, d.h. man kann damit rechnen, daß es jetzt auch breit eingesetzt wird.
 
Zuletzt bearbeitet:
@Gipsel: 1200 Shader sind immerhin 50% mehr als aktuell, und das in einem Chip, der dann vielleicht thermisch noch leichter beherrschbar ist als der RV790, so daß auch ein Dual-Karte relativ problemlos machbar ist. Rechne noch ein paar Gewinne durch Architekturverbesserungen dazu und es sieht ganz gut aus.

Wenn Charlie Demerian vom INQ mit seiner These (http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture) recht hat, dann muß AMD wenig ändern, um DX11 einzuführen, Nvidia dagegen muß angeblich viel dazu- und umbauen. Er vermutet auch, daß der GT300 stark bei GPGPU sein wird, was aber für die Spieleperformance nur überflüssiger Ballast ist, Diegröße und Stromverbrauch aber negativ beeinflußt. Wenn der also so ein Monsterchip wird, dann ist eine Dualkarte daraus erstmal unmöglich, und der Einzelchip könnte sich mit der Dualkarte von AMD mit dann zusammen 2400 Shadern schlagen lassen.
Naja, ist ja auch dasselbe. Nur mit dem Unterschied, daß das jetzt in DX11 mit drin ist und nicht nur eine Sonderlösung mit speziell notwendiger Unterstützung ausschließlich für Radeonkarten wie damals, d.h. man kann damit rechnen, daß es jetzt auch breit eingesetzt wird.

so siehts aus, nvidia hat sich arg in gpgpu verbissen, wohl auch begründet in dem "krieg" intel-nvidia, welcher prozessor nun der wichtigerere in der zukunft des pcs sein wird. man erinnere sich an die verbalen entgleisungen beider firmen.
ati und amd sah man ja schon auf dem friedhof.
aber schon jetzt ist es ja so, dass die beiweitem höhere transistorenzahl des GT200 sich nicht dementsprechent in besserer gameleistung zeigt. es wurde viel "verpulvert" zugunsten von gpgpu.
tatsache ist aber eher, dass sich nur eine verschwindent kleine minderheit für allgemeine berechnungen auf der gpu interessiert.
gewollt ist grafikleistung zum guten preis.
und der chefdesinger der monsterchips, kirk, mußte auch das unternehmen verlassen. wohl begründet in dem irrweg. anstatt wie gedacht, ati zu "plätten" schreibt ati schwarze zahlen (wenn auch net viel) hingegen muß nvidia ein extremes verlustquartal nach dem anderen hinnehmen. seit dem gt200

und der gt300? noch ein endprodukt von kirk im endeffekt, wieder ein monsterchip, wo noch niemand absehen kann, wie dieser in 40nm mit einer akzeptablen yield produziert werden kann. und zu welchen kosten. wie will man da mithalten?
während ati sich nun entspannt zurücklehnen kann. man war eh immer schon weiter, man hat schon lange dx10.1 karten die natürlich viel näher an den dx11 karten sind als die von nvidia. drum auch der vorsprung.

ich würd nvidia aktien verkaufen, dieses jahr wird nicht besser, nvidia wird wieder weit unter "wert" verkaufen müßen, damit der marktanteil gehalten werden kann..
 
Zuletzt bearbeitet:
@Gipsel: 1200 Shader sind immerhin 50% mehr als aktuell
Das war eher eine obere Grenze für den Fall, daß nicht viel am Aufbau und Layout geändert worden wäre. Schaut man sich den Wafer aber mal an und vergleicht z.B. mit RV770, so scheint sich doch einiges umgestellt worden zu sein. Würde gerne mal eine ordentliche Nahaufnahme sehen, auf den bisherigen Bildern kann man ja nicht viel erkennen und wer weiß, was da überhaupt genau drauf ist ;)
 
Edit:
Da der Chip nach Abzug des Verschnitts eher nur 180mm² hat, ergeben sich schätzungsweise knapp 1,1 Milliarden Transistoren. Angesichts der DX11 Features deutet dies allenfalls auf eine sehr moderat gestiegene Shaderzahl hin. Wie wäre es mit 12 SIMDs mit den bekannten 16 VLIW (80 SPs), also 960 SPs?
Abzüglich der Anpassungen aufgrund DX11.
Klar, viel muss ATi angeblich nicht umstellen, aber bei der kleinen DIE Fläche könnte das dann doch was ausmachen.

Edit:
@Gipsel:
Kannst Du was mit der komischen Grafik zu GPGPU (das meinen sie wohl mit "Multi-Threading", oder) DX10 -> DX11 anfangen ?
http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=

http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=

Das sieht nach parallel / seriell aus, aber die Shader sind doch jetzt schon parallel ansprechbar ... *kopfkratz

Oder ist das nur eine Anspielung auf MCMs ala Voodoo 6000 *lol*
Aber das gibts ja jetzt auch schon, und hat nichts mit DX11 zu tun.

ciao

Alex

P.S: Am Besten finde ich ja die eine Überschrift:
DX11: Sooner than you think...
Vielleicht gar ein Launch zum RV770 Jahrestag Ende Juni ^^
 
Zuletzt bearbeitet:
Edit:
@Gipsel:
Kannst Du was mit der komischen Grafik zu GPGPU (das meinen sie wohl mit "Multi-Threading", oder) DX10 -> DX11 anfangen ?
http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=

http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=

Das sieht nach parallel / seriell aus, aber die Shader sind doch jetzt schon parallel ansprechbar ... *kopfkratz

Oder ist das nur eine Anspielung auf MCMs ala Voodoo 6000 *lol*
Aber das gibts ja jetzt auch schon, und hat nichts mit DX11 zu tun.
Da fallen mir spontan zwei Sachen ein. Zum einen könnte es ganz banal auf den Fakt hinweisen, daß DX11 selber von Grund auf mehr auf Multithreading ausgelegt ist, das hat aber erstmal nicht viel mit der Hardware zu tun. Zum anderen könnte es aber auch mehrere parallel laufende Shader bedeuten. In dieser Beziehung gibt es heutzutage doch sehr massive Einschränkungen. Ein Support z.B. von mehreren gleichzeitig laufenden Compute Shadern (um bei GPGPU zu bleiben) inklusive Resourcenaufteilung oder gar Prioritäten wäre schon ganz nett (momentan kann nur ein einziger auf dem ganzen Chip laufen, gilt sowohl für nv als auch ATI). Dazu müßte man den ThreadScheduler ("Ultra Threaded Dispatch Processor") etwas flexibler gestalten. Im Prinzip bestehen die GPUs ja sowieso schon aus mehreren Kernen. Aber keine Ahnung, ob es das ist.


P.S: Am Besten finde ich ja die eine Überschrift:
DX11: Sooner than you think...
Vielleicht gar ein Launch zum RV770 Jahrestag Ende Juni ^^
Ich glaube, da meinen die DirectX11 Spiele ;)
 
Abzüglich der Anpassungen aufgrund DX11.

Kannst Du was mit der komischen Grafik zu GPGPU (das meinen sie wohl mit "Multi-Threading", oder) DX10 -> DX11 anfangen ?

Ich glaube damit sind nicht die Shader sondern die Ausführung von DirectX in den CPU-Cores gemeint. DirectX war wohl selber nicht so wirklich multithreaded, das ändert scih nun mit DX11

Sorry. Zwischendurch noch nen Anruf gehabt Antwort sit ja schon da
 
Ich glaube damit sind nicht die Shader sondern die Ausführung von DirectX in den CPU-Cores gemeint. DirectX war wohl selber nicht so wirklich multithreaded, das ändert scih nun mit DX11

Sorry. Zwischendurch noch nen Anruf gehabt Antwort sit ja schon da

Das glaube ich auch!
Es hieß immer, dass DX11 mit mehreren Threads laufen soll (Mehrkern-CPUs besser ausnutzen). Als Bsp.wurde immer der Sound angeführt. Dieser soll mit DX11 seinen eigenen Thread->CPU-Kern bekommen.
 
Zurück
Oben Unten