App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Computex: AMD zeigt ersten DirectX 11 Grafikprozessor
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Auf einer Pressekonferenz im Rahmen der Computex hat AMD heute den ersten DirectX 11 Grafikprozessor vorgestellt.
<blockquote>"AMD has a long track record of delivering pioneering features that have gone on to become mainstays in the DirectX experience, and we’re doing it again with two mature, AMD-developed technologies in DirectX 11 – tessellation and the compute shader – both of which enable a better DirectX 11 experience for consumers,” said Rick Bergman, Senior Vice President, AMD Products Group. “Today, we’re previewing AMD’s DirectX 11 graphics processor to build enthusiasm for this key technology so developers will have games available at launch and shortly thereafter. With the benefits it delivers to gaming, applications and Windows 7, developers are lining up to get their hands on our hardware, and we’re confident that consumers will too.”</blockquote>
<center><object width="560" height="340"><param name="movie" value="http://www.youtube.com/v/-eTngR6M37Q&hl=de&fs=1&color1=0x234900&color2=0x4e9e00"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/-eTngR6M37Q&hl=de&fs=1&color1=0x234900&color2=0x4e9e00" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="560" height="340"></embed></object></center>
<center><img src="http://farm3.static.flickr.com/2471/3589168101_3485634ca3.jpg?v=0"></center>
<b>Zur Pressemitteilung:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3955730#post3955730"> AMD Demonstrates World's First Microsoft DirectX 11 Graphics Processor </a>
Die ersten Karten mit den DirectX 11 Grafikchips sollen Ende 2009 verfügbar sein.
<blockquote>"AMD has a long track record of delivering pioneering features that have gone on to become mainstays in the DirectX experience, and we’re doing it again with two mature, AMD-developed technologies in DirectX 11 – tessellation and the compute shader – both of which enable a better DirectX 11 experience for consumers,” said Rick Bergman, Senior Vice President, AMD Products Group. “Today, we’re previewing AMD’s DirectX 11 graphics processor to build enthusiasm for this key technology so developers will have games available at launch and shortly thereafter. With the benefits it delivers to gaming, applications and Windows 7, developers are lining up to get their hands on our hardware, and we’re confident that consumers will too.”</blockquote>
<center><object width="560" height="340"><param name="movie" value="http://www.youtube.com/v/-eTngR6M37Q&hl=de&fs=1&color1=0x234900&color2=0x4e9e00"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/-eTngR6M37Q&hl=de&fs=1&color1=0x234900&color2=0x4e9e00" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="560" height="340"></embed></object></center>
<center><img src="http://farm3.static.flickr.com/2471/3589168101_3485634ca3.jpg?v=0"></center>
<b>Zur Pressemitteilung:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3955730#post3955730"> AMD Demonstrates World's First Microsoft DirectX 11 Graphics Processor </a>
Die ersten Karten mit den DirectX 11 Grafikchips sollen Ende 2009 verfügbar sein.
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Fein - und wenn dann (ausnahmsweise..) auch die Serienprodution einigermaßen in time startet, noch feiner
BTW: Hat jemand ne Ahnung, wer der Typ in der Flash-Demo is Der Nvidia-CEO schaut jedenfalls anders aus
BTW: Hat jemand ne Ahnung, wer der Typ in der Flash-Demo is Der Nvidia-CEO schaut jedenfalls anders aus
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
BTW: Hat jemand ne Ahnung, wer der Typ in der Flash-Demo is Der Nvidia-CEO schaut jedenfalls anders aus
Hat doch etwas Ähnlichkeit mit Hector Ruiz.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Zuletzt bearbeitet:
CleanerWolf
Fleet Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 269
- Renomée
- 2
- Standort
- Berlin
- Prozessor
- AMD Athlon64 X2 4200+ @2,6 GHz
- Mainboard
- DFI Lanparty nf4 SLI-DR Expert
- Kühlung
- Thermalright SI 120 + Papst 4412F/2GLL
- Speicher
- G.Skill 2048MB F1-4000USU2-2GBHZ (DDR500)
- Grafikprozessor
- XFX 7900 GT 520MHz, 256MB
- Display
- 19", CTX, 1280x1024
- HDD
- WD Raptor 150GB + Seagate 400 GB
- Optisches Laufwerk
- Plextor PX-130A, LG GSA-4167B
- Soundkarte
- Soundblaster X-Fi Platinum
- Gehäuse
- Thermaltake VB6000 Swing
- Netzteil
- Be Quiet 520W Dark Power
- Betriebssystem
- WinXP SP2 + WinXP x64
Die Überschrift ist etwas irreführend, denn lauffähige DX11-Chips hat AMD noch nicht. Es wurden lediglich ein paar DX11-Features demonstriert, um einen Ausblick auf die damit verbundenen Möglichkeiten geben.
Das sagt heise dazu:
http://www.heise.de/newsticker/AMD-...nd-kuendigt-Notebook-CPUs-an--/meldung/139773
Das sagt heise dazu:
http://www.heise.de/newsticker/AMD-...nd-kuendigt-Notebook-CPUs-an--/meldung/139773
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Die Überschrift ist etwas irreführend, denn lauffähige DX11-Chips hat AMD noch nicht. Es wurden lediglich ein paar DX11-Features demonstriert, um einen Ausblick auf die damit verbundenen Möglichkeiten geben.
Das sagt heise dazu:
http://www.heise.de/newsticker/AMD-...nd-kuendigt-Notebook-CPUs-an--/meldung/139773
laut cb war es eine lauffähige dx11 grakifkarte.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/juni/amd_directx-11-grafikkarte/
PS: ist eine cb-eigene quelle, also von cb sind 2 leute in taiwan live dabei.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Auf dem PR-Blättchen ist die Rede von TSMCs AMD-Partnerschaft in Erinnerung zur ersten DirectX-11- und 40 nm-GPU ... ja, das ist doppeldeutig. Der Wafer ist wohl symbolischer Platzhalter für zwei Meilensteine.Und welche GPU ist das jetzt?
Nachtrag:
Also Charlie Demerjian, war als Journalist vor Ort in Taipeh, dann sehen wir dort auf den Wafer AMDs kommenden DirectX-11-Chip.... showing off not only an Cypress (commonly mis-known as R870) wafer, but also working silicon ...
MFG Bobo(2009)
Zuletzt bearbeitet:
w0mbat
Commodore Special
- Mitglied seit
- 19.05.2006
- Beiträge
- 416
- Renomée
- 18
- Mein Laptop
- Lenovo ThinkPad L450@Ubuntu MATE
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- MSI MAG B550M Mortar Max WIFI
- Kühlung
- NZXT Kraken X63
- Speicher
- G.SKILL F4-3600C17D-32GTZR
- Grafikprozessor
- XFX Speedster QICK 319 Radeon RX 6800 BLACK Gaming
- Display
- LG 34UC79G-B
- SSD
- 2TB WD_BLACK SN850X | 2TB Samsung 970 EVO Plus
- Soundkarte
- Realtek ALC1220
- Gehäuse
- Lian Li O11 Dynamic Mini
- Netzteil
- Cougar SF750 Platinum
- Tastatur
- CM QuickFire Rapid-i
- Maus
- Logitech G Pro X Superlight 2
- Betriebssystem
- Windows 11 Pro x64
- Webbrowser
- Firefox
[...]AMD has had a back room presentation where AMD had several DirectX 11 GPUs working[...]
Both us and the people there where quite shocked to learn how well the chips were working.
http://www.nordichardware.com/news,9394.html
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Für einen 300mm Wafer in 40nm scheinen mir die einzelnen Die recht groß. Vielleicht wird es ja doch ein R8xx und kein RV8xx.
rkinet
Grand Admiral Special
Zumindest ein gutes Zeichen, dass so große DIEs schon in Vorserie fertigbar sind.Für einen 300mm Wafer in 40nm scheinen mir die einzelnen Die recht groß. Vielleicht wird es ja doch ein R8xx und kein RV8xx.
Aber auch ein Zeichen, dass die GPUs immer mehr Transistoren bekommen während bei CPUs eher gewisse Stagnation (geringer Quad-Coreanteil bei Intel) zu beobachten ist.
Hast Du mal die Dies gezählt? Also das sind meiner Zählung nach 25 x 19 Dies auf dem 300mm Wafer. Daraus ergibt sich rechnerisch ein 12 x 15,8 = 190 mm² Die (abzüglich Verschnitt). Das ist eindeutig RV irgendwas (angeblich gibt es intern diese Bezeichnung ja gar nicht). Bei perfekter Skalierung des Prozesses und ansonstem vergleichbarem Layout zu RV790 (282mm²) würden sich nur etwa 1,2-1,3 Milliarden Transistoren ergeben. Dies ist schon ziemlich sparsam und würde wirklich auf nur etwa 1200 Streamprozessoren hindeuten (oder sogar noch weniger). Die Hochrechnung von RV740 (137mm², 826 Millionen Transistoren) ergibt dann sogar unter 1,2 Milliarden Transistoren. Verglichen mit den 2,4 Milliarden des GT300 auf knapp 500mm² ist das geradezu winzig. Also wenn das der größte Chip sein sollte, setzt AMD scheinbar wirklich voll auf MultiGPU.Für einen 300mm Wafer in 40nm scheinen mir die einzelnen Die recht groß. Vielleicht wird es ja doch ein R8xx und kein RV8xx.
Edit:
Da der Chip nach Abzug des Verschnitts eher nur 180mm² hat, ergeben sich schätzungsweise knapp 1,1 Milliarden Transistoren. Angesichts der DX11 Features deutet dies allenfalls auf eine sehr moderat gestiegene Shaderzahl hin. Wie wäre es mit 12 SIMDs mit den bekannten 16 VLIW (80 SPs), also 960 SPs?
Zuletzt bearbeitet:
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
nunja, dafür werden die jungs bei ati nicht bei jedem wafer blut und wasser schwitzen müssen, so wie die jungs von nvidia.
wenn der kleine chip der 4770 in 40nm schon so ne schlechte yield hat, mag man sich nicht vorstellen, wie übel das bei nem 2,4 milliarden monster wird.
nvidia konnte ja jetzt schon mit dem GT200 im gegensatz zu ati mit dem rv770, keinen gewinn einfahren, sondern nur verluste.
wenn der kleine chip der 4770 in 40nm schon so ne schlechte yield hat, mag man sich nicht vorstellen, wie übel das bei nem 2,4 milliarden monster wird.
nvidia konnte ja jetzt schon mit dem GT200 im gegensatz zu ati mit dem rv770, keinen gewinn einfahren, sondern nur verluste.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
warum sollten die den richtigen RV8xx Wafer in alle Kameras halten?
Damit NV weiß womit zu rechnen ist?
Kann ich mir nicht vorstellen! Vielleicht ist es ja das Mittelklasse Modell oder irgendwas ganz anderes.
Viel interasanter ist doch, dass man bereits funktionierende Hardware in der Hand hat.
Damit NV weiß womit zu rechnen ist?
Kann ich mir nicht vorstellen! Vielleicht ist es ja das Mittelklasse Modell oder irgendwas ganz anderes.
Viel interasanter ist doch, dass man bereits funktionierende Hardware in der Hand hat.
Das weiß nvidia wahrscheinlich sowieso schon seit einiger Weile. Da sowohl ATI als auch nvidia bei TSMC fertigen lassen, weiß der jeweils andere wahrscheinlich spätestens dann Bescheid, wenn das Tape-Out des Design erfolgt (sprich, wenn es bei TSMC ankommt). Glaubst Du etwa, kein einziger Mitarbeiter dort quatscht? Im Notfall kann man auch mit ein paar Anreizen nachhelfenwarum sollten die den richtigen RV8xx Wafer in alle Kameras halten?
Damit NV weiß womit zu rechnen ist?
FalconFly
Admiral Special
Erinnert mich irgendwie an das mit der Radeon 8500 eingefuehrte TruForm per N-Patch Hardware Tessellation (?)
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
@Gipsel: 1200 Shader sind immerhin 50% mehr als aktuell, und das in einem Chip, der dann vielleicht thermisch noch leichter beherrschbar ist als der RV790, so daß auch ein Dual-Karte relativ problemlos machbar ist. Rechne noch ein paar Gewinne durch Architekturverbesserungen dazu und es sieht ganz gut aus.
Wenn Charlie Demerian vom INQ mit seiner These (http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture) recht hat, dann muß AMD wenig ändern, um DX11 einzuführen, Nvidia dagegen muß angeblich viel dazu- und umbauen. Er vermutet auch, daß der GT300 stark bei GPGPU sein wird, was aber für die Spieleperformance nur überflüssiger Ballast ist, Diegröße und Stromverbrauch aber negativ beeinflußt. Wenn der also so ein Monsterchip wird, dann ist eine Dualkarte daraus erstmal unmöglich, und der Einzelchip könnte sich mit der Dualkarte von AMD mit dann zusammen 2400 Shadern schlagen lassen.
Wenn Charlie Demerian vom INQ mit seiner These (http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture) recht hat, dann muß AMD wenig ändern, um DX11 einzuführen, Nvidia dagegen muß angeblich viel dazu- und umbauen. Er vermutet auch, daß der GT300 stark bei GPGPU sein wird, was aber für die Spieleperformance nur überflüssiger Ballast ist, Diegröße und Stromverbrauch aber negativ beeinflußt. Wenn der also so ein Monsterchip wird, dann ist eine Dualkarte daraus erstmal unmöglich, und der Einzelchip könnte sich mit der Dualkarte von AMD mit dann zusammen 2400 Shadern schlagen lassen.
Naja, ist ja auch dasselbe. Nur mit dem Unterschied, daß das jetzt in DX11 mit drin ist und nicht nur eine Sonderlösung mit speziell notwendiger Unterstützung ausschließlich für Radeonkarten wie damals, d.h. man kann damit rechnen, daß es jetzt auch breit eingesetzt wird.Erinnert mich irgendwie an das mit der Radeon 8500 eingefuehrte TruForm per N-Patch Hardware Tessellation (?)
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
Auf einer Pressekonferenz im Rahmen der Computex hat AMD heute den ersten DirectX 11 Grafikprozessor vorgestellt.
Welcher der Dice auf dem Wafer ist damit gemeint? Der zweit von links in der vierten Reihe?
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
@Gipsel: 1200 Shader sind immerhin 50% mehr als aktuell, und das in einem Chip, der dann vielleicht thermisch noch leichter beherrschbar ist als der RV790, so daß auch ein Dual-Karte relativ problemlos machbar ist. Rechne noch ein paar Gewinne durch Architekturverbesserungen dazu und es sieht ganz gut aus.
Wenn Charlie Demerian vom INQ mit seiner These (http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture) recht hat, dann muß AMD wenig ändern, um DX11 einzuführen, Nvidia dagegen muß angeblich viel dazu- und umbauen. Er vermutet auch, daß der GT300 stark bei GPGPU sein wird, was aber für die Spieleperformance nur überflüssiger Ballast ist, Diegröße und Stromverbrauch aber negativ beeinflußt. Wenn der also so ein Monsterchip wird, dann ist eine Dualkarte daraus erstmal unmöglich, und der Einzelchip könnte sich mit der Dualkarte von AMD mit dann zusammen 2400 Shadern schlagen lassen.
Naja, ist ja auch dasselbe. Nur mit dem Unterschied, daß das jetzt in DX11 mit drin ist und nicht nur eine Sonderlösung mit speziell notwendiger Unterstützung ausschließlich für Radeonkarten wie damals, d.h. man kann damit rechnen, daß es jetzt auch breit eingesetzt wird.
so siehts aus, nvidia hat sich arg in gpgpu verbissen, wohl auch begründet in dem "krieg" intel-nvidia, welcher prozessor nun der wichtigerere in der zukunft des pcs sein wird. man erinnere sich an die verbalen entgleisungen beider firmen.
ati und amd sah man ja schon auf dem friedhof.
aber schon jetzt ist es ja so, dass die beiweitem höhere transistorenzahl des GT200 sich nicht dementsprechent in besserer gameleistung zeigt. es wurde viel "verpulvert" zugunsten von gpgpu.
tatsache ist aber eher, dass sich nur eine verschwindent kleine minderheit für allgemeine berechnungen auf der gpu interessiert.
gewollt ist grafikleistung zum guten preis.
und der chefdesinger der monsterchips, kirk, mußte auch das unternehmen verlassen. wohl begründet in dem irrweg. anstatt wie gedacht, ati zu "plätten" schreibt ati schwarze zahlen (wenn auch net viel) hingegen muß nvidia ein extremes verlustquartal nach dem anderen hinnehmen. seit dem gt200
und der gt300? noch ein endprodukt von kirk im endeffekt, wieder ein monsterchip, wo noch niemand absehen kann, wie dieser in 40nm mit einer akzeptablen yield produziert werden kann. und zu welchen kosten. wie will man da mithalten?
während ati sich nun entspannt zurücklehnen kann. man war eh immer schon weiter, man hat schon lange dx10.1 karten die natürlich viel näher an den dx11 karten sind als die von nvidia. drum auch der vorsprung.
ich würd nvidia aktien verkaufen, dieses jahr wird nicht besser, nvidia wird wieder weit unter "wert" verkaufen müßen, damit der marktanteil gehalten werden kann..
Zuletzt bearbeitet:
Das war eher eine obere Grenze für den Fall, daß nicht viel am Aufbau und Layout geändert worden wäre. Schaut man sich den Wafer aber mal an und vergleicht z.B. mit RV770, so scheint sich doch einiges umgestellt worden zu sein. Würde gerne mal eine ordentliche Nahaufnahme sehen, auf den bisherigen Bildern kann man ja nicht viel erkennen und wer weiß, was da überhaupt genau drauf ist@Gipsel: 1200 Shader sind immerhin 50% mehr als aktuell
Opteron
Redaktion
☆☆☆☆☆☆
Abzüglich der Anpassungen aufgrund DX11.Edit:
Da der Chip nach Abzug des Verschnitts eher nur 180mm² hat, ergeben sich schätzungsweise knapp 1,1 Milliarden Transistoren. Angesichts der DX11 Features deutet dies allenfalls auf eine sehr moderat gestiegene Shaderzahl hin. Wie wäre es mit 12 SIMDs mit den bekannten 16 VLIW (80 SPs), also 960 SPs?
Klar, viel muss ATi angeblich nicht umstellen, aber bei der kleinen DIE Fläche könnte das dann doch was ausmachen.
Edit:
@Gipsel:
Kannst Du was mit der komischen Grafik zu GPGPU (das meinen sie wohl mit "Multi-Threading", oder) DX10 -> DX11 anfangen ?
http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=
http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=
Das sieht nach parallel / seriell aus, aber die Shader sind doch jetzt schon parallel ansprechbar ...
Oder ist das nur eine Anspielung auf MCMs ala Voodoo 6000
Aber das gibts ja jetzt auch schon, und hat nichts mit DX11 zu tun.
ciao
Alex
P.S: Am Besten finde ich ja die eine Überschrift:
DX11: Sooner than you think...
Vielleicht gar ein Launch zum RV770 Jahrestag Ende Juni ^^
Zuletzt bearbeitet:
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Abzüglich der Anpassungen aufgrund DX11.
Klar, viel muss ATi angeblich nicht umstellen, aber bei der kleinen DIE Fläche könnte das dann doch was ausmachen.
ciao
Alex
die effektivität pro mm² aufgrund der dichte soll ja bei ati ne ecke besser sein als bei nvidia.
Da fallen mir spontan zwei Sachen ein. Zum einen könnte es ganz banal auf den Fakt hinweisen, daß DX11 selber von Grund auf mehr auf Multithreading ausgelegt ist, das hat aber erstmal nicht viel mit der Hardware zu tun. Zum anderen könnte es aber auch mehrere parallel laufende Shader bedeuten. In dieser Beziehung gibt es heutzutage doch sehr massive Einschränkungen. Ein Support z.B. von mehreren gleichzeitig laufenden Compute Shadern (um bei GPGPU zu bleiben) inklusive Resourcenaufteilung oder gar Prioritäten wäre schon ganz nett (momentan kann nur ein einziger auf dem ganzen Chip laufen, gilt sowohl für nv als auch ATI). Dazu müßte man den ThreadScheduler ("Ultra Threaded Dispatch Processor") etwas flexibler gestalten. Im Prinzip bestehen die GPUs ja sowieso schon aus mehreren Kernen. Aber keine Ahnung, ob es das ist.Edit:
@Gipsel:
Kannst Du was mit der komischen Grafik zu GPGPU (das meinen sie wohl mit "Multi-Threading", oder) DX10 -> DX11 anfangen ?
http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=
http://www.hardocp.com/image.html?i...uL3Nob3d0aHJlYWQucGhwP3Q9NDE2NTI0JnBhZ2U9NDg=
Das sieht nach parallel / seriell aus, aber die Shader sind doch jetzt schon parallel ansprechbar ...
Oder ist das nur eine Anspielung auf MCMs ala Voodoo 6000
Aber das gibts ja jetzt auch schon, und hat nichts mit DX11 zu tun.
Ich glaube, da meinen die DirectX11 SpieleP.S: Am Besten finde ich ja die eine Überschrift:
DX11: Sooner than you think...
Vielleicht gar ein Launch zum RV770 Jahrestag Ende Juni ^^
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Abzüglich der Anpassungen aufgrund DX11.
Kannst Du was mit der komischen Grafik zu GPGPU (das meinen sie wohl mit "Multi-Threading", oder) DX10 -> DX11 anfangen ?
Ich glaube damit sind nicht die Shader sondern die Ausführung von DirectX in den CPU-Cores gemeint. DirectX war wohl selber nicht so wirklich multithreaded, das ändert scih nun mit DX11
Sorry. Zwischendurch noch nen Anruf gehabt Antwort sit ja schon da
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Ich glaube damit sind nicht die Shader sondern die Ausführung von DirectX in den CPU-Cores gemeint. DirectX war wohl selber nicht so wirklich multithreaded, das ändert scih nun mit DX11
Sorry. Zwischendurch noch nen Anruf gehabt Antwort sit ja schon da
Das glaube ich auch!
Es hieß immer, dass DX11 mit mehreren Threads laufen soll (Mehrkern-CPUs besser ausnutzen). Als Bsp.wurde immer der Sound angeführt. Dieser soll mit DX11 seinen eigenen Thread->CPU-Kern bekommen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 500
- Antworten
- 0
- Aufrufe
- 434
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 785