News AMD stellt ATI Radeon HD 4890 vor

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Mit der ATI Radeon HD 4890 stellt AMD ein neues Single-GPU Top-Modell für die hauseigene 4800er Modellreihe vor, bei der nach eigenen Angaben nicht nur die Takte für Speicher und Grafikchip angehoben wurden, sondern auch einige kleine Verbesserungen vorgenommen wurden.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5312"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5312" border="1" alt="AMD ATI Radeon 4890"></a></center>

Die Änderungen schlagen sich in höheren Füllraten und Speicherdurchsätzen, aber auch in einem höheren Verbrauch unter Last wieder. Ob AMD wie angeben den Verbrauch im Idle-Betrieb senken konnten dürften die zahlreich anstehenden Reviews klären, wobei es mit den neuen Beta-Treibern hier und da noch Probleme gegeben haben soll.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5314"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5314" border="1" alt="AMD ATI Radeon HD 4890 - Änderungen"></a><br><font size="-3">Bildquelle: golem.de</font></center>

Ein Teil der erwähnten Änderungen besteht in sogenannten Entstörkondensatoren, die die höheren Taktraten erst möglich machen sollen. Allerdings wird dadurch der Die des Grafikchips etwas größer und somit im Vergleich zum RV770 wohl auch in der Produktion teurer.


<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5313"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5313" border="1" alt="AMD ATI Radeon 4890"></a></center>

AMD positioniert die ATI Radeon HD 4890 preislich unter 260 US-Dollar, wobei bereits jetzt zahlreiche von Haus aus übertaktete Karten angekündigt wurden, die diesen Preisrahmen sprengen könnten. Erste Listungen bei Händlern zeigen die Karten zu Preisen 240 Euro als erhältlich an, wobei im Laufe des Tages noch eine Ausweitung der verfügbaren Karten zu erwarten ist und sich der Preis einzelner Modelle auch deutlich in Richtung 200 Euro bewegen dürfte.

<strong> Reviews und Berichte im Netz:</strong>

<ul><li><a href="http://ht4u.net/reviews/2009/amd_radeon_hd_4890/" target="b">AMD ATI Radeon HD 4890 (HardTecs4U)</a></li><li><a href="http://www.hartware.net/review_925.html" target="b">ATI Radeon HD 4890 (Hartware.net)</a></li><li><a href="http://www.heise.de/newsticker/Neue-High-End-Grafikkarten-von-AMD-und-Nvidia--/meldung/135608" target="b">Neue High-End-Grafikkarten von AMD und Nvidia (heise online)</a></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/" target="b">ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (ComputerBase)</a></li><li><a href="http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/" target="b">Test: Ati Radeon HD 4890 gegen Nvidia Geforce GTX 275 (PC Games Hardware)</a></li><li><a href="http://www.golem.de/0904/66268.html" target="b">GTX-275 und Radeon 4890: Konkurrenz mit allen Mitteln</a></li></ul>

<ul><li><a href="http://www.phoronix.com/scan.php?page=article&item=amd_radeon_hd4890&num=1" target="b">AMD Radeon HD 4890 On Linux (Phoronix)</a></li><li><a href="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=315&Itemid=72" target="b">Sapphire Radeon HD 4890 RV790 Video Card (Benchmark Reviews)</a></li><li><a href="http://www.hexus.net/content/item.php?item=17863" target="b">Sapphire Radeon HD 4890 XT and XFX Radeon HD 4890 OC vs NVIDIA GeForce GTX 275 (HEXUS)</a></li><li><a href="http://hothardware.com/articles/ATI-Radeon-HD-4890-RV790-Unveiled/" target="b">ATI Radeon HD 4890: The RV790 Unveiled (HotHardware.com)</a></li><li><a href="http://www.techpowerup.com/reviews/Sapphire/HD_4890" target="b">Sapphire HD 4890 1 GB GDDR5 (techPowerUp!)</a></li><li><a href="http://www.techpowerup.com/reviews/Powercolor/HD_4890" target="b">PowerColor HD 4890 1 GB GDDR5 (techPowerUp!)</a></li><li><a href="http://www.techpowerup.com/reviews/ATI/HD_4890_CrossFire" target="b">AMD Radeon HD 4890 CrossFire (techPowerUp!)</a></li><li><a href="http://www.tweaktown.com/reviews/2702/gigabyte_radeon_hd_4890_1gb_graphics_card/index.html" target="b">GIGABYTE Radeon HD 4890 1GB Graphics Card (TweakTown)</a></li><li><a href="http://www.xbitlabs.com/articles/video/display/radeon-hd4890.html" target="b">ATI Radeon HD 4890: 1GHz Conquered!</a></li></ul>
 
Gibts ein Review das auch eine 3870 im Vergleich dabei hat? Verfolge den Grafikkartenmarkt nicht mehr so genau und habe schon lange den Überblick verloren und wüsste gern mal, wieviel sich wirklich geändert hat.

thx

ah hab schon, die HD4850 scheint in etwa mit der 3870 vergleichbar zu sein. Hat sich ja jetzt nicht soooo viel getan im SingleGPU-Markt.
 
Zuletzt bearbeitet:
Ja, Computerbase zB.

In Crysis Warhead schafft die 3870 16,1 Bilder, die 4890 32,5.
Aber bestimmt nicht mit gleichen Treibern. Trotzdem kann man schon gut vergleichen. Die 4870 1GB hat aber das bessere P/L Verhältnis.

MFG MR2
 
Immer noch satte 60W idle...
Dann doch eher die 4850 ;D
.
EDIT :
.

ah hab schon, die HD4850 scheint in etwa mit der 3870 vergleichbar zu sein. Hat sich ja jetzt nicht soooo viel getan im SingleGPU-Markt.

Der UVD hat sich aber verbessert (so langsam sollten den aber auch ein bisschen mehr Programme unterstützen- greift AMD da den Programmierern nicht genug unter die Arme oder wird AMDs Hilfe nicht angenommen?).
 
Den Idle Stromverbrauch kann man doch bestimmt mit untertakten/untervolten noch etwas reduzieren...

Wenn sich die Chips dann vergleichsweise noch etwas besser übertakten lassen ist der Nachfolger der 4870 vielleicht gar keine so schlechte Wahl. Ich lese mir jetzt zu ner tasse Kaffe erst mal die Reviews durch :)

Grüße!
 
Interessante Leistungsaufnahme, sieht so aus als gäbe es für mich keine Alternative zu meiner 3870? Betreibe das ganze in einem HTPC, da kommts mir auf niedrige Idlewerte an, gezockt wird eh eher selten. Um das sagenumwobene Feature die Onboardgraka im Windowsbetrieb zu nutzen und die Extrakarte abzuschalten, ist es ja merklich still geworden. Mein letzter Stand war, das es einfach nicht funktioniert und eingestampft wurde?
 
Also die einzigen, die bislang die besseren Verbrauchswerte gemessen haben sind xbit labs http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0

Merkwürdigerweise verwenden die den Catalyst 9.3 mit einer PowerColor Karte. Eigentlich gab es für die Tests einen Beta-Treiber bzw RC1-Treiber (ATi Catalyst 8.592.1 RC1) den zum Beispiel CB im Test verwendet hat.
 
Wenn ich mir den Test von Computerbase so anschaue spricht eigentlich alles für die GTX 275 von nVidia. Bin zwar eigentlich kein großer Fan mehr von nVidia-Karten, aber so langsam brauch ich was neues und die 4890 ist nicht das geworden was ich mir so erhofft hatte.

Vorallem im Bezug zum Stromverbrauch machen die Topmodelle von ATI keine besonders gute Figur.
 
Der IDLE-Verbrauch macht die Karte imho zu einem völligen Fehlversuch. 30 W mehr als der direkte nv-Konkurrent (laut cb und hexus) sind einfach völlig unakzeptabel.
Wer auch nur ein bisschen auf den Verbrauch seines Rechenrs schielt, hat damit nur zwei Alternativen: die hd4670 als den Top-Stromsparer (hier zeigt ATI, daß sies durchaus besser können...) oder aber, wenn mehr Leistung gefragt wird, die versammelte nv-Riege von GTS 250, GTX260, GTX 275 oder GTX 285 (beeindruckend, wie nv bei den neusten Single-GPU Modellen durchweg auf einen einigermaßen akzeptablen IDLE-Verbrauch achtet).
Auf ATI-Seiten kann von den aktuellen Karten da nur noch die auslaufende HD4830 mithalten. Bleibt zu hoffen, daß die kommende HD4770 ein würdiger Nachfolger der HD4670/HD4830 wird, ansonsten führt mein nächstes Upgrade wohl zwangsweise zur "grünen" (eindeutig zweideutig) Seite. *suspect*
 
@pipin

Bei Xbit sind die idle Werte ja deutlich besser als bei den anderen Tests. Kann es sein das der Beta Treiber hier versagt?
Denn alle verwenden ja den Treiber der von AMD mit geliefert wird, nur Xbit verwendet den regulären 9.3 Treiber. Wenn bei Xbit der Idle Verbrauch aber quasi gleichauf mit der 260GTX ist, müsste es doch am Treiber liegen.
Oder verwendet XBit eine 65nm 260GTX Karte? Das ist für mich nicht ganz offensichtlich.
 
@pipin

Bei Xbit sind die idle Werte ja deutlich besser als bei den anderen Tests. Kann es sein das der Beta Treiber hier versagt?
Denn alle verwenden ja den Treiber der von AMD mit geliefert wird, nur Xbit verwendet den regulären 9.3 Treiber. Wenn bei Xbit der Idle Verbrauch aber quasi gleichauf mit der 260GTX ist, müsste es doch am Treiber liegen.
Oder verwendet XBit eine 65nm 260GTX Karte? Das ist für mich nicht ganz offensichtlich.


ich vermute du liegst da richtig. der betatreiber ists.

gamestar schrieb gestern:
"Im Leerlauf konnte AMD den Stromverbrauch allerdings von 90 Watt um ein Drittel auf 60 Watt drücken."

weiß jetzt aber nicht, welchen treiber die für den bericht gestern benutzten. weil der bericht ja auch vor der nda war. wohl dann auch der 9.3
 
Zuletzt bearbeitet:
ich vermute du liegst da richtig. der betatreiber ists.

gamestar schrieb gestern:
"Im Leerlauf konnte AMD den Stromverbrauch allerdings von 90 Watt um ein Drittel auf 60 Watt drücken."

weiß jetzt aber nicht, welchen treiber die für den bericht gestern benutzten. weil der bericht ja auch vor der nda war. wohl dann auch der 9.3

Der Test ist der größte Witz im Netz, die haben einfach die AMD Werte aus den Folien, die bereits vorher geleakt waren, übernommen.

Zum Treiber selbst: Ich habe mit ein paar Reviewern gesprochen und bei einigen war der Treiber sehr zickig und bei anderen hat er gar keine Probleme bereitet.
 
Ich hab mich bei Gamestar mal umgeschaut, da steht doch dabei das der 9.3 verwendet wurde, unter jedem Benchmark.

Dann sieht es für sehr stark danach aus das es doch am Treiber liegt. Wäre toll wenn P3D das mal testen und bestätigen könnte.
 
Ich hab mich bei Gamestar mal umgeschaut, da steht doch dabei das der 9.3 verwendet wurde, unter jedem Benchmark.

Dann sieht es für sehr stark danach aus das es doch am Treiber liegt. Wäre toll wenn P3D das mal testen und bestätigen könnte.


stimmt. untem im kleingedruckten. soweit bin ich dann net gekommen.

sollt vielleicht mal nach fielmann.
 
Interessante Leistungsaufnahme, sieht so aus als gäbe es für mich keine Alternative zu meiner 3870? Betreibe das ganze in einem HTPC, da kommts mir auf niedrige Idlewerte an, gezockt wird eh eher selten.

Wozu alternativen die leistungsfähiger sind? In ein HTPC gehört eigentlich noch nicht mal eine 3870 wenn man eh selten spielt. Da würde ich mir was noch sehr viel sparsameres und leiseres greifen.
 
Wozu alternativen die leistungsfähiger sind? In ein HTPC gehört eigentlich noch nicht mal eine 3870 wenn man eh selten spielt. Da würde ich mir was noch sehr viel sparsameres und leiseres greifen.

Najo bei mir is das Ding mehr ein Consolen/DVD-Player/HD-Player-ersatz, sprich läuft eh nicht so oft. Imo ist das ganze noch in einem Miditower und steht hier rum, kommt demnächst aber in das hier http://www.caseking.de/shop/catalog/Gehaeuse/HTPC-Gehaeuse/Antec-Fusion-Remote-black::11355.html rein.

Wozu ne Spielkonsole kaufen, wenn man alles in einem haben kann :) Zum Musikhören/Surfen/Filesharing hab ich n 12" Laptop auf dem Wohnzimmertisch. Imo Stinkt mich nur die Kabelei an, brauchbare Bluetooth Audioreceiver sind sehr teuer und rahr gesäät.
 

Naja,angeblich hatten sie ein defektes Testmuster.

"Bereits im Intro dieses Artikels haben wir erwähnt, dass wir im Verlauf des Tests auf Probleme stießen. Wir mussten am gestrigen Tag schlussendlich eingestehen, dass wir es mit einem defekten Testmuster zu tun haben müssen. Unsere Kollegen bestätigten auf Rückfragen, dass dort derartige Probleme nicht auftraten.

Wie sahen die Probleme aus? Das ist schnell erklärt. Im normalen Betrieb (auch in Benchmarks) konnten wir kein ungewöhnliches Verhalten feststellen, allerdings dann unter maximaler Last mit Furmark. Hier brauchte der Furmark-Test lediglich Zeiten von 20 bis 40 Sekunden, bis das System abstürzte. Mal mit einem Neustart, mal mit einem Blue-Screen. Alle Versuche hier Abhilfe zu schaffen führten ins Leere.

Da wir allerdings nun bei Leistungsaufnahme, Temperaturen und Lautstärkeverhalten Furmark seit einigen Wochen als schlichte Größe bei unseren Messungen führen, bleibt unser Test vorerst unvollständig. Auch auf das Kapitel Overclocking müssen wir vollständig verzichten, denn eine instabile Karte weiter zu belasten macht keinen Sinn."
 
Ich hab den Trend erkannt ;D

2. Rechner als Spiele PC ^^

Aber den gesteigerten Verbauch gegenüber der 4870 find ich schon etwas hart.
Wo soll das hingehen ? Hausreaktor für den Strom und Tiefkühler auf der Karte ?

Das Green IT nur eine Seifenblase war, war klar aber so langsam könnten die mal was in diese Richtung unternehmen. Was nützt mir Leistung wenn mir dabei der Hintern wegfackelt ?!?!?

Die entweder oder Zeiten sind langsam aber sicher vorbei....
 
ICh weiß nicht, wenn man mal das Verhältnis anschaut wie die Leistung im Vergleich zum Verbrauch steigt, so steigt die Leistung weit schneller als der Verbrauch. Allgemein gesprochen.
Das ist zumindest schon mal etwas.
Ein K6 III 450 hatte eine TDP von 30W, eine aktuelle CPU mit 95W bietet aber ein vielfaches der Leistung. Bei Grafikkarten sieht es ähnlich aus.

Man kann schlecht erwarten das der Verbrauch plötzlich um die Hälfte niedriger ist als bei eienr Karte die 5 mal langsamer ist. Nur mal so sporadisch ausgesprochen.

Sicher ist der Idleverbrauch recht hoch, aber das liegt wohl eher daran das die Treiber oder das Bios einfach schlecht abgestimmt sind. Das man deutlich mehr sparen könnte wenn man z.B. das Bios verändert sieht man ja auf vielen Seiten deutlich. Warum das aber die Hersteller selbst nicht auf die Reihe bekommen ist mir unverständlich.
Was ich auch nicht verstehe, bei CPUs ist man in der Lage bestimmte Teile der CPU IDle zu deaktivieren, warum geht das nicht bei GPUs?
 
Das Green IT nur eine Seifenblase war, war klar aber so langsam könnten die mal was in diese Richtung unternehmen. Was nützt mir Leistung wenn mir dabei der Hintern wegfackelt ?!?!?

Ist imho zu pauschal. Daß es durchaus GraKas giebt, die es besser machen, habe ich oben schon dargelegt.
Zumal hier auch die Konsumenten in die Pflicht zu nehmen. Wer weiter Grakas mit utopischen IDLE-Verbräuchen kauft, braucht sich auch nicht zu wundern, wenn die Hersteller nur zögerlich entsprechende Schritte zur Verbrauchsreduzierung einleiten.
Solange letztlich doch fast nur die Leistung Kaufkriterium ist, werden die Anstrengungen natürlich darauf konzentriert, zumal in der Situation des heftigen Konkurrenzkampfs.
Hier fehlt afaik auch einfach noch das nötige Bewusstsein der Konsumenten (sowohl ökologischer, als auch ökonomischer Natur). Da darf man sich auch nicht davon täuschen lassen, wie sehr Verbrauch hier im Forum eine Rolle spielt, ist schließlich nicht repräsentativ.
 
Mir scheint es so, als ob unabhängig vom Fertigungsverfahren die GPU-Architekturen - sei es von ATI oder NVIDIA erst in den kommenden Chipgenerationen merklich geringeren Idle Stromverbrauch haben.

Zu Nvidia Grafikkarten. Also über den grünen Klee loben muss man die aktuell nun auch nicht wirklich...

Die GTX 275 verbraucht auch gute 30 Watt zu viel im Idle wenn man sie mit ner Radeon 4670 vergleicht und ist von dem Standpunkt her gesehen genauso indiskutabel in einem 24/7 BOINC Rechner der nur gelegentlich zum spielen genutzt wird. Zumal das Topmodell GTX 285 beim Computerbase Test sogar geringeren Stromverbrauch aufweist, als das kleinere und heute vorgestellte Modell GTX 275. Hier könnte man genauso spekulieren und zumindest als Randnotiz bemerken, das Nvidias Stromsparfeatures hier beim neuen Produkt schlechter umgesetzt wurden und hier keine Kontinuität besteht...

http://www.computerbase.de/artikel/...force_gtx_275/26/#abschnitt_leistungsaufnahme

Will hier keine Haare in der Suppe suchen, aber einen Kaufgrund für oder gegen ein Produkt kann ich hier aktuell nicht festmachen. Grafikkarten vor 2 Jahren (G80 Ultra) haben im Idle 120 Watt was weiss ich was Stromverbrauch gehabt. Es ist wahrscheinlich, das eine Geforce XY im jahr 2010 im Idle nur 5 Watt Stromverbrauch hat, und bei ATI wird es auch nicht viel anders ausschauen (Spekulation) Mitz meiner Kaufentscheidung kann ich da aktuell gar nichts mehr bewegen bzgl Produktentwicklung...Nach und nach werden da beide Hersteller nachziehen und mal ist halt der eine schneller - mal der andere..

Just my 5 Cents..
:-)

Grüße!
 
Zuletzt bearbeitet:
Dein Wort in Gottes Ohr, ich für meinen Teil bin nach den großspurigen Ankündigungen von <10W idle beim RV770 und der folgenden Ernüchterung nicht so optimistisch ... scheinbar sehen die Hersteller im gehobenen Segment einfach keinen Grund, den obszön hohen Idle-Verbrauch zu senken.

Man muss sich doch nur mal einen Nehalem oder Shanghai ansehen, diese CPUs besitzen annähernd so viele Transistoren wie RV770, verbrauchen aber im Leerlauf einen Bruchteil - klar, man kann das nicht 1:1 vergleichen, die Platine und der RAM wollen ja auch versorgt werden, trotzdem irgendwie ein Armutszeugnis für eine Industriesparte die für sich beansprucht, die klassische CPU teilweise ablösen zu wollen ...

Hoffen wir mal, dass RV740 wirklich auf ein ähnliches idle-Niveau wie HD3850/4760 kommt ...

Allerdings sehe ich das ähnlich wie KG, sinnvoller scheint es mir, einfach 2 Rechner für verschiedene Aufgaben zu verwenden - für Downloads, als Schreibmaschine, zum Surfen und Musikhören tut es auch mein kleines iBook G4 mit 17W idle-Verbrauch, um auf einen solchen Wert zu kommen müsste ich mich mit einem herkömmlichen (und teuren) Desktop-System schon brutal verrenken.

mfG

denton
 
Zu Nvidia Grafikkarten. Also über den grünen Klee loben muss man die aktuell nun auch nicht wirklich...

Ich sprach bewußt von "einigermaßen akzeptablen IDLE-Verbrauch", wo da jetzt übermäßiges Lob zu finden ist, kann ich nicht erkennen. *noahnung*

Die GTX 275 verbraucht auch gute 30 Watt zu viel im Idle wenn man sie mit ner Radeon 4670 vergleicht und ist von dem Standpunkt her gesehen genauso indiskutabel in einem 24/7 BOINC Rechner der nur gelegentlich zum spielen genutzt wird.
Sehe ich prinzipiell genauso. Zumal die HD4670 für den Gelegenheitsspieler mehr als ausreichend ist, man kann damit auch ein Crysis oder Far Cry 2 sehr annehmbar spielen.
Wenn aber die Leistung einer GraKa der gehobenen Midrange-Klasse gefragt ist, kann man imho den Kauf einer HD4890 eigentlich nicht verantworten. Das sind dann nämlich nochmal 30W mehr, die der Rechner kontinuierlich frisst.
Gerade wenn der PC länger läuft (und nicht nur für Zocksessions angeschaltet wird) ist das doch untragbar. Da sollte man dann imho zumindest zum kleineren Übel greifen.

Zumal das Topmodell GTX 295 beim Computerbase Test sogar geringeren Stromverbrauch aufweist, als das kleinere und heute vorgestellte Modell GTX 275.
http://www.computerbase.de/artikel/...force_gtx_275/26/#abschnitt_leistungsaufnahme
Wo siehst du das da? *noahnung*

Will hier keine Haare in der Suppe suchen, aber einen Kaufgrund für oder gegen ein Produkt kann ich hier aktuell nicht festmachen.
30W Differenz im IDLE-Verbrauch sind da imho allemal ausschlaggebend. Davon ließe sich ein Trifire-Verbund (!) von HD4670 betreiben... .
.
EDIT :
.

Allerdings sehe ich das ähnlich wie KG, sinnvoller scheint es mir, einfach 2 Rechner für verschiedene Aufgaben zu verwenden - für Downloads, als Schreibmaschine, zum Surfen und Musikhören tut es auch mein kleines iBook G4 mit 17W idle-Verbrauch, um auf einen solchen Wert zu kommen müsste ich mich mit einem herkömmlichen (und teuren) Desktop-System schon brutal verrenken.
Da müssen erstmal die Anschaffungskosten des Zweitsystems gestemmt werden (wenn Stromersparnis aus ökologischen Gründen eine Rolle spielt, müsste zudem der Energiebedarf für die Fertigung des Zweitsystems erst wieder reingeholt werden).
Und dann ist das Arbeiten an einem Notebook auf Dauer nicht mit dem Komfort eines Desktopsystems zu vergleichen. Für Kurzeinsätze ok, aber für längeres Arbeiten ist die Kombi aus Desktopsystem und einem ordentlichen Computertisch imho schwer ersetzbar. Bei einem zweiten sparsamen Desktopsystem hat man dann hingegen das Platzproblem.
 
Zurück
Oben Unten