News AMD hält ATI Radeon HD 4770 X2 für realisierbar

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Mit der ATI Radeon HD 4700 Serie bietet AMD derzeit die einzigen in Großserie gefertigten 40 nm Grafikkarten an; auch wenn es aufgrund der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1242803666">Fertigungsprobleme von TSMC</a> und der verglichen mit der Leistungsfähigkeit sehr günstigen Preise phasenweise Engpässe bei der Lieferbarkeit gab und gibt. Wohl auch deshalb hat AMD von Anfang an darauf verzichtet, eine Dual-GPU Grafikkarte dieser Serie mit einzuplanen, wie es sie für 4850 und 4870 gibt.

In einem Interview mit <a href="http://technologizer.com/2009/07/07/your-questions-amds-answers/" target="_blank">Technologizer</a> sprach Pat Moorhead, Vice President of Advanced Marketing bei AMD, über die Möglichkeiten mit diesen Chips. So könne er sich durchaus vorstellen, dass die Grafikkarten-Hersteller selbst solche HD 4770 X2 Karten anbieten würden, gab er zu Protokoll. Somit überlässt es AMD den Herstellern, ob sie sich auf dieses Abenteuer einlassen wollen oder nicht, schiebt dem aber auch keinen Riegel vor.

Interessant wäre das Projekt auf jeden Fall, denn obwohl AMD die fortschrittliche 40 nm Technologie auf den Markt gebracht hat, stagniert die Entwicklung derzeit ein wenig. AMDs schnellstes Modell ist immer noch die betagte 4870 X2, die zwar ordentlich Leistung hat, aber unter Vollast <a href="http://ht4u.net/reviews/2009/powercolor_ati_radeon_hd_4730/index13.php" target="_blank">gemessene 370 W Leistung</a> aufnimmt. Eine X2 bestehend aus zwei relativ stromsparenden 4770 GPUs könnte eine HD 4890, AMDs schnellste Single-GPU Grafikkarte, deutlich überflügeln, aber dennoch erheblich sparsamer sein, als die HD 4870 X2. So verbraucht eine HD 4770 unter Vollast lediglich gemessene 80 W. Selbst im schlimmsten Fall, dass sich die Leistungsaufnahme bei 2 GPUs verdoppelt, wären das immer noch lediglich 160 W und damit nicht nur weniger, als die HD 4890 verbraucht (210 W), sondern ein Unterschied wie Tag und Nacht zur HD 4870 X2 (370 W).

Dass AMD sich nicht selbst mit einer HD 4770 X2 aufhalten möchte, ist logisch, schließlich arbeitet die kanadische Grafik-Division von AMD bereits eifrig an den DirectX 11 GPUs, die noch im Herbst dieses Jahres auf den Markt kommen sollen. Und das hat derzeit maximale Priorität.
 
Wenn dann bitte den Takt hochschrauben und viieel Speicher und als HD4880X2 bringen oder so...
 
Ich kenn mich ja mit Grafikkarten nicht so aus,

Welche Vorteile/Nachteile hat denn eine X2 im Vergleich zu 2 Single?
Und kann man einen Kern dann auch wieder abschalten wenn man ihn nicht braucht oder ist beide Kerne runtertakten effizienter?

Gruss
Dev Art
 
Ich kenn mich ja mit Grafikkarten nicht so aus,

Welche Vorteile/Nachteile hat denn eine X2 im Vergleich zu 2 Single?
Und kann man einen Kern dann auch wieder abschalten wenn man ihn nicht braucht oder ist beide Kerne runtertakten effizienter?

Gruss
Dev Art

tja, nicht jeder hat ein crossfire board, daher ein X2 Karte ;)
 
Ohne Referenzdesign von ATI ist das ein riskantes Unterfangen für die Lieferanten. :-X
 
Eine x2-Karte die sich zwischen eine 4890 und einer 4850x2 platzieren soll, ist jetzt ziemlich überflüssig geworden. Man bedenke das Herbst die neuen Gamerkarten von AMD kommen, wo dann eine SingleGPU diese Lücke füllen wird, ganz ohne die Einschränkungen von Crossfire, plus dem DX11 und besserer Speicheranbindung. Der potenzielle Käufer der 4770x2 hätte nur kurz Freude an seiner Erwerbung.

Generell kommen die im Ansatz innovativen Lösungen leider immer zu spät. So zum Beispiel auch die Kühllösungen. Die Hersteller verschwenden zuviel Zeit auf das Referenzdesign mit dem man sich eigentlich gar nicht vom Konkurrent abheben kann und deswegen nur über verlustreichen Preiskampf Geschäfte macht. Ein Release paar Wochen später wäre locker wieder reinzuholen, wenn man schon die ersten Chips die man reinbekommt mit sowas wie VaporX oder IceQ ausliefern würde. Dann kann man auch beim Preis ordentlich zulangen und der Kunde ist bestimmt auch bereit bißchen zu warten, wenn er weiß da kommt was.
 
Hi,

wäre sicherlich ein sehr interessantes Produkt. Der Stromverbauch wäre sicherlich DAS Argument neben dem Preis. Wie Nero aber schon sagt, es wäre schnell "veraltet", da AMD ja die DirectX 11 GPU in der Pipeline ist. Diese muss aber erst einmal halte, was man sich von ihr verspricht.;)

Ich hoffe mal, dass ein paar Hersteller es wagen...Leistung zählt hat immer und wenn sie preiswert ist*yeah* Was allerdings noch ein Hindernis sein könnte, ist die noch nicht zufriedenstellende Verfügbarkeit der 40nm GPU.

Greetz
neax;)
 
hier mal nen Bild :

ati_4770x2_dh_fx57.jpg
 
Naja, dann ist auch der Idle-Verbrauch doppelt so hoch? Super! ;)

Eher nicht..
Zumindest bei der Radeon 4870 X2 ist das nicht der Fall

radeon 4870 X2 ~75 Watt Idle BoardPower

Radeon 4870 Single Idle Board Power 55 Watt

(^^beides die Versionen mit 1024 (2x 1024) MB GDDR5 RAM)

Wobei die radeon 4870 X2 ein offizielles referenzdesign darstellt. Bei einer radeon 4770 X2 muss dass nicht analog zur radeon 4870 X2 verlaufen..

- und selbst wenn - dann liegt auch der Wert zweier radeon 4770 allenfalls auf Niveau der Radeon 4890 - die eine Idle Board Power von ~60 Watt aufweist - allerdings mit 1024 MB GDDR5 Speicher... - Das Ganze bei teils verbesserter Spielleistung und wie man dem Ártikel entnehmen kann - deutlich geringerem Stromverbrauch unter Last.. Probleme bei CF Skalierung sehe ich eigentlich eher nicht und Microruckler bei 2 GPUs sind nur in praxisfremden Szenarien (sehr niedrige Fps - User mit Adleraugen) denkbar..Normalerweise benötigt es auch afaik nicht zwingendTreiberoptimierungen für einzelne Spiele m Crossfire zu unterstützen.. ..Die Radeon GPUs sind werksseitig so designt, dass es unerheblich sein sollte ob die Berechnung der 3D Anwendung mit 1 oder 2 Karten geschieht..

Grüße!
 
Zuletzt bearbeitet:
Zurück
Oben Unten