News AMD Radeon HD 7000 sind kompatibel zu Microsoft DirectX 11.2 [Update: Treiber verfügbar]

Noch mal:

Die RV350 hatte 4 Pipes, die NV30 und 35 haben auch 4 Pipes. Die R300 hatte aber 8 Pipes.
NV30 hatte auch nur 128bit Speicherinterface, der RV350 auch. Der R300 hatte aber ein 256bit Speicherinterface.

Und auch wenn du dir die Benchmarks von damals so antust, dann wirst du feststellen, dass nV30 und RV350 relativ nahe beienander sind. Somit ist deine Aussage einfach mal völliger Blödsinn.

Die Wahrheit ist so simpel, wie nur irgendwas:
R300 war einfach breiter, PUNKT

Da gibt es jetzt nichts dran zu rütteln, schön zu reden oder sonst was, es ist einfach fakt, dass nV30/35 einfach nur 4 Renderpipelines haben. Da sollte eigentlich jeder einsehen, dass man damit überhaupt keinen Schneid gegen ein 8 Pipe Design hat.

Du wirst mir doch wohl auch zustimmen, dass eine Grafikkarte mit 2048 Shadern, 128TMus und 32 Rops unter keinen Umständen auch nur den Hauch einer Chance gegen eine GPU mit 4096 Shadern, 256 TMUs und 64 ROPs hat, oder?!

Warum versucht man das beim nV30/35 so hinzudrehen, als ob das ginge?!
Über die Abhängigkeit der TMUs und Shader reden wir mal lieber gar nicht erst, das ist nur ein weiterer Sargnagel in der Architektur. Letztendlich hat ATi damals nVidia eiskalt erwischt und einfach eine Architektur geliefert, die deutlich breiter war, die auch noch heile war und keine schweren Fehler aufwies, wie R200.
Somit ists eigentlich klar, dass R300 in diesem Falle besser war. Erst mit nV40 konnte nV wieder aufschließen (zeitweise)...

PS: ich behaupte ja auch nicht, dass die R100 überhaupt ansatzweise gegen 'nen NV15 anstinken konnte. Das ging ebenso wenig, wie nV30 gegen R300 ankommen konnte.
Die R100 hatte nämlich auch nur 2 Pipelines, die 3 TMUs bringen da nicht soo viel wie als wenn man 4 Pipelines hätte...
 
Was ist an den Worten "falsche Auslegung" und "grundlegener Nachteil der damaligen, unflexiblen Pipeline Architektur" so schwer zu verstehen...?

Das man mit weniger Shadern deutlich schneller sein kann zeigte nvidia bereist beim G80 vs. R600 Duell und komme mir jetzt nicht mit Spitzfindigkeiten wie die 5D Shader als einen zu berechnen und die 5 Operationen unter den Tisch fallen zu lassen.
Mit diesen Architekturen laesst sich je nach Spiel praktisch alles aus deiner Aussage widerlegen denn danach haette die HD2900 XT durch die deutlich geringere Anzahl an TMUs (16 vs. 64) durchgehend meilenweit hinter oder durch die deutlich hoehere Anzahl an Shadern (320) deutlich vor der 8800GTX liegen muessen.
Ich denke das die Geschichte letztendlich beides deutlich widerlegt und bestaetigt hatte denn die Platzierung hing deutlich vom genutzten Spiel ab. So lagen beispielsweise bei der Platzierung zwischen den Spielen "Rainbow Six Vegas" und "Stalker" ganz einfach Welten.
 
War Tiled Resources Tier 1 nicht bereits Bestandteil von DX11.1 und bei 11.2 kam dann noch Tier 2 hinzu?
Wird Tier 2 jetzt mit dem DX11.2 Treiber per Software gelöst oder laufen es weiterhin im 11.1 Modus?

Da bin ich jetzt leicht verwirrt. oO
 
hää?

Tiled Resources ist ein DirectX 11.2 Feature, von dem es zwei Ausbaustufen innerhalb von DirectX 11.2 gibt. -> Tier 1 und 2

Was die Unterschiede zwischen Tier 1 & 2 sind, steht auf der Folie.
 
Wie ich das hasse wenn man beim Stöbern im i-net auf unterschiedliche Angaben trifft... -.-
 
Darüber legen die Hersteller hoffentlich den Mantle des Schweigens.

;D

Wenn die Xbox One floppt, steht DirectX ohnehin vor dem Ende. Welchen Sinn es jetzt haben soll, die potentielle Marktdurchdringung einer neuen DirectX-Version künstlich weiter einzuschränken, seh ich auch nicht. Es könnte ja auch so kommen, dass die Leute, statt sich Windows 8.1 zuzulegen, einfach Windows komplett den Rücken kehren zugunsten mobiler Geräte, auf denen Microsoft auf unabsehbare Zeit keine Wurst vom Teller ziehen wird.
 
;D

Wenn die Xbox One floppt, steht DirectX ohnehin vor dem Ende. Welchen Sinn es jetzt haben soll, die potentielle Marktdurchdringung einer neuen DirectX-Version künstlich weiter einzuschränken, seh ich auch nicht. Es könnte ja auch so kommen, dass die Leute, statt sich Windows 8.1 zuzulegen, einfach Windows komplett den Rücken kehren zugunsten mobiler Geräte, auf denen Microsoft auf unabsehbare Zeit keine Wurst vom Teller ziehen wird.

Wir können nur hoffen das es so kommt.
Warten wir mal Steam mit seiner Box und den Linux Ambitionen ab.

Aber es ist doch genau so wie mit DX 10 und XP. Was gab es für Ausreden das es nicht gehen würde.
Und Win-7 ist von Win-8/8.1 ja nicht soweit weg wie es damals XP zu Vista war.
MS könnte mit Sicherheit DX11.2 auch für Win-7 bringen, aber nein. Sie müssen und wollen Ihr 8.1 durchdrücken.
Sollen se es machen, lebe ich eben nur mit DX 11.1 weiter, das langt mir auch.
Und wer weiss, evtl geschehen Wunder und Spielen macht auf Linux auch mal Richtig Spass vom Speed her.
 
Sollen se es machen, lebe ich eben nur mit DX 11.1 weiter, das langt mir auch.
Direct3D 11.1 gibt es (zur Zeit) aber gleichfalls nur bei Windows 8 und 8.1. Bei Windows 7 ist mit Direct3D 11.0 Schluß.

Allerdings heißt das nicht, das Direct3D 11.1 oder 11.2 nicht noch nachgereicht wird. Vista hat so ein Update mal bekommen.
 
Zuletzt bearbeitet:
Mit Mantle können höchst wahrscheinlich alle Funktionen von DirectX 11.2 und weitere hardwarespezifische auch unter Windows 7 und Windows 8 genutzt werden. Ich gehe zumindest davon aus, dass Mantle auch unter Windows 7 angeboten wird. Damit kann es Radeon-Besitzern eigentlich egal sein, was Microsoft macht. Wichtig ist die Unterstützung durch die Engine-Entwickler und die Studios.

GeForce-Besitzer gucken bei DirectX 11.1 und 11.2 derzeit sowieso in die Röhre.
 
hehe ,

die GTX 780Ti soll ja angeblich doch DX 11.1 können *suspect*
Was ich aber immer noch nicht glaube, denn sonst könnte ja alle GK110 Karten das !
 
Ich würde das gerne mal mit Win8.1 testen. Leider habe ich bisher keine Version gefunden die sich installieren läßt, ohne das mein Win8 Enterprise Media x64 dann nicht mehr startet und nur per ISO-Backup wieder zu installieren geht. Oder ich stelle mich an. :D.

wo ich mir doch letztens erst 2x 7970 gekauft habe. Weil die 2x GTX770 bei BF4 nicht aus der Hufe kam.

[edit]
nach dem ich alles wie AntivirenSoft und Protectsoftware sowie haufen Dienstsoft runter gehauen hatte, ging es nun endlich.
Da bin ich mal gespannt. mit 8.1.
 
Zuletzt bearbeitet:
Hast du nicht nach eine weitere Festplatte auf der du es installieren kannst?
Zur Not die Platte mit dem orginal OS abklemmen, Win 8.1 installieren und die Platte wieder anklemmen. Danach kannst du die zu bootende Platte ja im BIOS auswählen.
 
Was ist mit der mobilen GCN serie? Also HD 7970m, 7870m, die neue HD 8600/8700/8800/8900m Serie?
 
Hast du nicht nach eine weitere Festplatte auf der du es installieren kannst?
Zur Not die Platte mit dem orginal OS abklemmen, Win 8.1 installieren und die Platte wieder anklemmen. Danach kannst du die zu bootende Platte ja im BIOS auswählen.

Nein wollte nicht neu installieren, dazu ist mein System nach ca 1,5Jahren Win8 zu sehr vermüllt. :D
 
Mit Mantle können höchst wahrscheinlich alle Funktionen von DirectX 11.2 und weitere hardwarespezifische auch unter Windows 7 und Windows 8 genutzt werden. Ich gehe zumindest davon aus, dass Mantle auch unter Windows 7 angeboten wird. Damit kann es Radeon-Besitzern eigentlich egal sein, was Microsoft macht. Wichtig ist die Unterstützung durch die Engine-Entwickler und die Studios.

Du hast meine Aussage zwar umständlich, aber inhaltlich korrekt wiederholt :-)
 
Hoffen wir nur mal das die Kühlversorgung bei den Konsolen optimiert ist, sonst würde ich mal behaupten das die Teile 1-2 Jahre halten und dann Schrott sind. Habe leider die Erfahrung machen müssen, das AMD Laptops im vgl. zu ihren Intel Kollegen deutlich schneller kaputt gehen und nicht lange halten. Die meisten Geräte gehen kurz bzw. mit Glück vor der Garantie kaputt. Lediglich 2 Modelle Acer 18 Zoll Gerät, und Samsung NP-R505E laufen noch, werden aber so heiß im Betrieb das diese auch irgendwann den Geist aufgeben sollten. Bei Intel Laptops ist mir das bisher noch nicht aufgefallen, lediglich das bei meinem eigenen Gebrauchtgerät es mal die Platine zerlegt hat, lief nach dem Tausch wieder.

AMD Grafikkarte kann nur im Akku-Betrieb runtergetaktet werden, was für ein Schwachfug, der Griffin im Samsung mit einen 35 Watt TDP wird im Idle nur 70 Grad heiß, was soll der Mist, was mich jedenfalls dazu bewogen hat nur noch Intel Laptops zu vermitteln. AMD kriegst leider nicht gebacken.

Dazu kommt noch die schlechte Pro/Mhz Leistung, kann man ebenfalls vergessen, aber gut man kann auch nicht erwarten das AMD es schafft einen vgl. Laptop wie Intel zu bauen im Falle eines 2x verkauften Samsung NP-300E5E mit seinem Dual-Core incl. Grafik nur 40 Watt benötigt, das Teil lau war wird, und dabei eine ähnliche Leistung abzuliefern ohne sich gleich die Beine zu verbrennen.

Hm.. ich wusste gar nicht, dass AMD Notebooks baut.

Ich glaube du irrst dich...
Du wirst bestimmt den Mist meinen, den die Hersteller ACER,HP,DELL etc. fabrizieren..

Ich nenne das mal Henne-Ei Problem.
Kunde (Zidane) -> Für den AMD-Schrott geb ich kein Geld aus..
Hersteller (xyz) -> AMD-Technik im Laptop muss billig sein, sonst kauft der Kunde nicht.

Wann kommen bei dieser Kunden-Hersteller-Beziehung hochwertige Geräte? .... genau Nie.

Ich würde sofort ein AMD Notebook kaufen, wenn Sie sich mal einen Fertiger an Land ziehen.
Gruß Lehmann
 
Gibt es denn irgendwo DX11.2 Benchmarks?
Ich würde gerne mal testen, wie die HD7770 damit abschneidet.
Eigentlich schade, dass es kein Äquivalent in der R7/R9 Reihe dazu gibt, was die geringe Energieaufnahme angeht.

Gibt es eigentlich brauchbare Frame-Begrenzer für DX 11.x. Rivatuner geht scheinbar nur bis DX 11.
Ich bräuchte so etwas für Battlefield 4, da der "interne Begrenzer" nicht funktioniert, wie gewünscht.
 
Zurück
Oben Unten