App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMD stellt ATI Radeon HD 4890 vor
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Mit der ATI Radeon HD 4890 stellt AMD ein neues Single-GPU Top-Modell für die hauseigene 4800er Modellreihe vor, bei der nach eigenen Angaben nicht nur die Takte für Speicher und Grafikchip angehoben wurden, sondern auch einige kleine Verbesserungen vorgenommen wurden.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5312"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5312" border="1" alt="AMD ATI Radeon 4890"></a></center>
Die Änderungen schlagen sich in höheren Füllraten und Speicherdurchsätzen, aber auch in einem höheren Verbrauch unter Last wieder. Ob AMD wie angeben den Verbrauch im Idle-Betrieb senken konnten dürften die zahlreich anstehenden Reviews klären, wobei es mit den neuen Beta-Treibern hier und da noch Probleme gegeben haben soll.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5314"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5314" border="1" alt="AMD ATI Radeon HD 4890 - Änderungen"></a><br><font size="-3">Bildquelle: golem.de</font></center>
Ein Teil der erwähnten Änderungen besteht in sogenannten Entstörkondensatoren, die die höheren Taktraten erst möglich machen sollen. Allerdings wird dadurch der Die des Grafikchips etwas größer und somit im Vergleich zum RV770 wohl auch in der Produktion teurer.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5313"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5313" border="1" alt="AMD ATI Radeon 4890"></a></center>
AMD positioniert die ATI Radeon HD 4890 preislich unter 260 US-Dollar, wobei bereits jetzt zahlreiche von Haus aus übertaktete Karten angekündigt wurden, die diesen Preisrahmen sprengen könnten. Erste Listungen bei Händlern zeigen die Karten zu Preisen 240 Euro als erhältlich an, wobei im Laufe des Tages noch eine Ausweitung der verfügbaren Karten zu erwarten ist und sich der Preis einzelner Modelle auch deutlich in Richtung 200 Euro bewegen dürfte.
<strong> Reviews und Berichte im Netz:</strong>
<ul><li><a href="http://ht4u.net/reviews/2009/amd_radeon_hd_4890/" target="b">AMD ATI Radeon HD 4890 (HardTecs4U)</a></li><li><a href="http://www.hartware.net/review_925.html" target="b">ATI Radeon HD 4890 (Hartware.net)</a></li><li><a href="http://www.heise.de/newsticker/Neue-High-End-Grafikkarten-von-AMD-und-Nvidia--/meldung/135608" target="b">Neue High-End-Grafikkarten von AMD und Nvidia (heise online)</a></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/" target="b">ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (ComputerBase)</a></li><li><a href="http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/" target="b">Test: Ati Radeon HD 4890 gegen Nvidia Geforce GTX 275 (PC Games Hardware)</a></li><li><a href="http://www.golem.de/0904/66268.html" target="b">GTX-275 und Radeon 4890: Konkurrenz mit allen Mitteln</a></li></ul>
<ul><li><a href="http://www.phoronix.com/scan.php?page=article&item=amd_radeon_hd4890&num=1" target="b">AMD Radeon HD 4890 On Linux (Phoronix)</a></li><li><a href="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=315&Itemid=72" target="b">Sapphire Radeon HD 4890 RV790 Video Card (Benchmark Reviews)</a></li><li><a href="http://www.hexus.net/content/item.php?item=17863" target="b">Sapphire Radeon HD 4890 XT and XFX Radeon HD 4890 OC vs NVIDIA GeForce GTX 275 (HEXUS)</a></li><li><a href="http://hothardware.com/articles/ATI-Radeon-HD-4890-RV790-Unveiled/" target="b">ATI Radeon HD 4890: The RV790 Unveiled (HotHardware.com)</a></li><li><a href="http://www.techpowerup.com/reviews/Sapphire/HD_4890" target="b">Sapphire HD 4890 1 GB GDDR5 (techPowerUp!)</a></li><li><a href="http://www.techpowerup.com/reviews/Powercolor/HD_4890" target="b">PowerColor HD 4890 1 GB GDDR5 (techPowerUp!)</a></li><li><a href="http://www.techpowerup.com/reviews/ATI/HD_4890_CrossFire" target="b">AMD Radeon HD 4890 CrossFire (techPowerUp!)</a></li><li><a href="http://www.tweaktown.com/reviews/2702/gigabyte_radeon_hd_4890_1gb_graphics_card/index.html" target="b">GIGABYTE Radeon HD 4890 1GB Graphics Card (TweakTown)</a></li><li><a href="http://www.xbitlabs.com/articles/video/display/radeon-hd4890.html" target="b">ATI Radeon HD 4890: 1GHz Conquered!</a></li></ul>
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5312"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5312" border="1" alt="AMD ATI Radeon 4890"></a></center>
Die Änderungen schlagen sich in höheren Füllraten und Speicherdurchsätzen, aber auch in einem höheren Verbrauch unter Last wieder. Ob AMD wie angeben den Verbrauch im Idle-Betrieb senken konnten dürften die zahlreich anstehenden Reviews klären, wobei es mit den neuen Beta-Treibern hier und da noch Probleme gegeben haben soll.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5314"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5314" border="1" alt="AMD ATI Radeon HD 4890 - Änderungen"></a><br><font size="-3">Bildquelle: golem.de</font></center>
Ein Teil der erwähnten Änderungen besteht in sogenannten Entstörkondensatoren, die die höheren Taktraten erst möglich machen sollen. Allerdings wird dadurch der Die des Grafikchips etwas größer und somit im Vergleich zum RV770 wohl auch in der Produktion teurer.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=5313"><img src="http://www.planet3dnow.de/photoplog/file.php?n=5313" border="1" alt="AMD ATI Radeon 4890"></a></center>
AMD positioniert die ATI Radeon HD 4890 preislich unter 260 US-Dollar, wobei bereits jetzt zahlreiche von Haus aus übertaktete Karten angekündigt wurden, die diesen Preisrahmen sprengen könnten. Erste Listungen bei Händlern zeigen die Karten zu Preisen 240 Euro als erhältlich an, wobei im Laufe des Tages noch eine Ausweitung der verfügbaren Karten zu erwarten ist und sich der Preis einzelner Modelle auch deutlich in Richtung 200 Euro bewegen dürfte.
<strong> Reviews und Berichte im Netz:</strong>
<ul><li><a href="http://ht4u.net/reviews/2009/amd_radeon_hd_4890/" target="b">AMD ATI Radeon HD 4890 (HardTecs4U)</a></li><li><a href="http://www.hartware.net/review_925.html" target="b">ATI Radeon HD 4890 (Hartware.net)</a></li><li><a href="http://www.heise.de/newsticker/Neue-High-End-Grafikkarten-von-AMD-und-Nvidia--/meldung/135608" target="b">Neue High-End-Grafikkarten von AMD und Nvidia (heise online)</a></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/" target="b">ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (ComputerBase)</a></li><li><a href="http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/" target="b">Test: Ati Radeon HD 4890 gegen Nvidia Geforce GTX 275 (PC Games Hardware)</a></li><li><a href="http://www.golem.de/0904/66268.html" target="b">GTX-275 und Radeon 4890: Konkurrenz mit allen Mitteln</a></li></ul>
<ul><li><a href="http://www.phoronix.com/scan.php?page=article&item=amd_radeon_hd4890&num=1" target="b">AMD Radeon HD 4890 On Linux (Phoronix)</a></li><li><a href="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=315&Itemid=72" target="b">Sapphire Radeon HD 4890 RV790 Video Card (Benchmark Reviews)</a></li><li><a href="http://www.hexus.net/content/item.php?item=17863" target="b">Sapphire Radeon HD 4890 XT and XFX Radeon HD 4890 OC vs NVIDIA GeForce GTX 275 (HEXUS)</a></li><li><a href="http://hothardware.com/articles/ATI-Radeon-HD-4890-RV790-Unveiled/" target="b">ATI Radeon HD 4890: The RV790 Unveiled (HotHardware.com)</a></li><li><a href="http://www.techpowerup.com/reviews/Sapphire/HD_4890" target="b">Sapphire HD 4890 1 GB GDDR5 (techPowerUp!)</a></li><li><a href="http://www.techpowerup.com/reviews/Powercolor/HD_4890" target="b">PowerColor HD 4890 1 GB GDDR5 (techPowerUp!)</a></li><li><a href="http://www.techpowerup.com/reviews/ATI/HD_4890_CrossFire" target="b">AMD Radeon HD 4890 CrossFire (techPowerUp!)</a></li><li><a href="http://www.tweaktown.com/reviews/2702/gigabyte_radeon_hd_4890_1gb_graphics_card/index.html" target="b">GIGABYTE Radeon HD 4890 1GB Graphics Card (TweakTown)</a></li><li><a href="http://www.xbitlabs.com/articles/video/display/radeon-hd4890.html" target="b">ATI Radeon HD 4890: 1GHz Conquered!</a></li></ul>
Gibts ein Review das auch eine 3870 im Vergleich dabei hat? Verfolge den Grafikkartenmarkt nicht mehr so genau und habe schon lange den Überblick verloren und wüsste gern mal, wieviel sich wirklich geändert hat.
thx
ah hab schon, die HD4850 scheint in etwa mit der 3870 vergleichbar zu sein. Hat sich ja jetzt nicht soooo viel getan im SingleGPU-Markt.
thx
ah hab schon, die HD4850 scheint in etwa mit der 3870 vergleichbar zu sein. Hat sich ja jetzt nicht soooo viel getan im SingleGPU-Markt.
Zuletzt bearbeitet:
MR2
Vice Admiral Special
Ja, Computerbase zB.
In Crysis Warhead schafft die 3870 16,1 Bilder, die 4890 32,5.
Aber bestimmt nicht mit gleichen Treibern. Trotzdem kann man schon gut vergleichen. Die 4870 1GB hat aber das bessere P/L Verhältnis.
MFG MR2
In Crysis Warhead schafft die 3870 16,1 Bilder, die 4890 32,5.
Aber bestimmt nicht mit gleichen Treibern. Trotzdem kann man schon gut vergleichen. Die 4870 1GB hat aber das bessere P/L Verhältnis.
MFG MR2
Immer noch satte 60W idle...
Dann doch eher die 4850
.
EDIT :
.
Der UVD hat sich aber verbessert (so langsam sollten den aber auch ein bisschen mehr Programme unterstützen- greift AMD da den Programmierern nicht genug unter die Arme oder wird AMDs Hilfe nicht angenommen?).
Dann doch eher die 4850
.
EDIT :
.
ah hab schon, die HD4850 scheint in etwa mit der 3870 vergleichbar zu sein. Hat sich ja jetzt nicht soooo viel getan im SingleGPU-Markt.
Der UVD hat sich aber verbessert (so langsam sollten den aber auch ein bisschen mehr Programme unterstützen- greift AMD da den Programmierern nicht genug unter die Arme oder wird AMDs Hilfe nicht angenommen?).
U
User002
Guest
Den Idle Stromverbrauch kann man doch bestimmt mit untertakten/untervolten noch etwas reduzieren...
Wenn sich die Chips dann vergleichsweise noch etwas besser übertakten lassen ist der Nachfolger der 4870 vielleicht gar keine so schlechte Wahl. Ich lese mir jetzt zu ner tasse Kaffe erst mal die Reviews durch
Grüße!
Wenn sich die Chips dann vergleichsweise noch etwas besser übertakten lassen ist der Nachfolger der 4870 vielleicht gar keine so schlechte Wahl. Ich lese mir jetzt zu ner tasse Kaffe erst mal die Reviews durch
Grüße!
Interessante Leistungsaufnahme, sieht so aus als gäbe es für mich keine Alternative zu meiner 3870? Betreibe das ganze in einem HTPC, da kommts mir auf niedrige Idlewerte an, gezockt wird eh eher selten. Um das sagenumwobene Feature die Onboardgraka im Windowsbetrieb zu nutzen und die Extrakarte abzuschalten, ist es ja merklich still geworden. Mein letzter Stand war, das es einfach nicht funktioniert und eingestampft wurde?
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Also die einzigen, die bislang die besseren Verbrauchswerte gemessen haben sind xbit labs http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0
Merkwürdigerweise verwenden die den Catalyst 9.3 mit einer PowerColor Karte. Eigentlich gab es für die Tests einen Beta-Treiber bzw RC1-Treiber (ATi Catalyst 8.592.1 RC1) den zum Beispiel CB im Test verwendet hat.
Merkwürdigerweise verwenden die den Catalyst 9.3 mit einer PowerColor Karte. Eigentlich gab es für die Tests einen Beta-Treiber bzw RC1-Treiber (ATi Catalyst 8.592.1 RC1) den zum Beispiel CB im Test verwendet hat.
Vudu3
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.574
- Renomée
- 6
- Standort
- Duisburg
- Mein Laptop
- Dell Vostro 1400
- Prozessor
- Intel Core i7 3770
- Mainboard
- MSI Z77A-GD65
- Kühlung
- Thermalright HR-02 Macho
- Speicher
- 2x 4GB DDR3 Team Group Elite
- Grafikprozessor
- MSI R5770 HAWK
- Display
- Eizo S2231WH
- HDD
- Samsung 830 128 GB, WD2001FASS 2TB, Hitachi 7K1000.B 1TB
- Optisches Laufwerk
- LG GGC-H20L HD/BD Reader, Pioneer BDR-207 BD Writer
- Soundkarte
- ASUS Xonar DX 7.1
- Gehäuse
- CS-901 Blau Metallic
- Netzteil
- Enermax Pro82+ II 425W
- Betriebssystem
- Windows 7 Professional x64
- Webbrowser
- Google Chrome
Wenn ich mir den Test von Computerbase so anschaue spricht eigentlich alles für die GTX 275 von nVidia. Bin zwar eigentlich kein großer Fan mehr von nVidia-Karten, aber so langsam brauch ich was neues und die 4890 ist nicht das geworden was ich mir so erhofft hatte.
Vorallem im Bezug zum Stromverbrauch machen die Topmodelle von ATI keine besonders gute Figur.
Vorallem im Bezug zum Stromverbrauch machen die Topmodelle von ATI keine besonders gute Figur.
Redphil
Grand Admiral Special
- Mitglied seit
- 13.02.2004
- Beiträge
- 6.415
- Renomée
- 152
- Standort
- L, FG
- Mein Laptop
- Dell Vostro 1510 mit Celeron-M 540
- Prozessor
- Intel Pentium G6950
- Mainboard
- Intel DP55KG
- Kühlung
- Scythe Yasya
- Speicher
- 4 GB Crucial Tracer DDR3
- Grafikprozessor
- Sapphire Radeon HD 5830
- Display
- EIZO S1901
- HDD
- WD800HLFS; WD6400AAKS
- Optisches Laufwerk
- Samsung SH-S203N
- Gehäuse
- Lian-Li PC-P60
- Netzteil
- PC Power&Cooling Silencer Quad Crossfire
- Betriebssystem
- Win7
- Webbrowser
- Firefox
Der IDLE-Verbrauch macht die Karte imho zu einem völligen Fehlversuch. 30 W mehr als der direkte nv-Konkurrent (laut cb und hexus) sind einfach völlig unakzeptabel.
Wer auch nur ein bisschen auf den Verbrauch seines Rechenrs schielt, hat damit nur zwei Alternativen: die hd4670 als den Top-Stromsparer (hier zeigt ATI, daß sies durchaus besser können...) oder aber, wenn mehr Leistung gefragt wird, die versammelte nv-Riege von GTS 250, GTX260, GTX 275 oder GTX 285 (beeindruckend, wie nv bei den neusten Single-GPU Modellen durchweg auf einen einigermaßen akzeptablen IDLE-Verbrauch achtet).
Auf ATI-Seiten kann von den aktuellen Karten da nur noch die auslaufende HD4830 mithalten. Bleibt zu hoffen, daß die kommende HD4770 ein würdiger Nachfolger der HD4670/HD4830 wird, ansonsten führt mein nächstes Upgrade wohl zwangsweise zur "grünen" (eindeutig zweideutig) Seite.
Wer auch nur ein bisschen auf den Verbrauch seines Rechenrs schielt, hat damit nur zwei Alternativen: die hd4670 als den Top-Stromsparer (hier zeigt ATI, daß sies durchaus besser können...) oder aber, wenn mehr Leistung gefragt wird, die versammelte nv-Riege von GTS 250, GTX260, GTX 275 oder GTX 285 (beeindruckend, wie nv bei den neusten Single-GPU Modellen durchweg auf einen einigermaßen akzeptablen IDLE-Verbrauch achtet).
Auf ATI-Seiten kann von den aktuellen Karten da nur noch die auslaufende HD4830 mithalten. Bleibt zu hoffen, daß die kommende HD4770 ein würdiger Nachfolger der HD4670/HD4830 wird, ansonsten führt mein nächstes Upgrade wohl zwangsweise zur "grünen" (eindeutig zweideutig) Seite.
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
@pipin
Bei Xbit sind die idle Werte ja deutlich besser als bei den anderen Tests. Kann es sein das der Beta Treiber hier versagt?
Denn alle verwenden ja den Treiber der von AMD mit geliefert wird, nur Xbit verwendet den regulären 9.3 Treiber. Wenn bei Xbit der Idle Verbrauch aber quasi gleichauf mit der 260GTX ist, müsste es doch am Treiber liegen.
Oder verwendet XBit eine 65nm 260GTX Karte? Das ist für mich nicht ganz offensichtlich.
Bei Xbit sind die idle Werte ja deutlich besser als bei den anderen Tests. Kann es sein das der Beta Treiber hier versagt?
Denn alle verwenden ja den Treiber der von AMD mit geliefert wird, nur Xbit verwendet den regulären 9.3 Treiber. Wenn bei Xbit der Idle Verbrauch aber quasi gleichauf mit der 260GTX ist, müsste es doch am Treiber liegen.
Oder verwendet XBit eine 65nm 260GTX Karte? Das ist für mich nicht ganz offensichtlich.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
@pipin
Bei Xbit sind die idle Werte ja deutlich besser als bei den anderen Tests. Kann es sein das der Beta Treiber hier versagt?
Denn alle verwenden ja den Treiber der von AMD mit geliefert wird, nur Xbit verwendet den regulären 9.3 Treiber. Wenn bei Xbit der Idle Verbrauch aber quasi gleichauf mit der 260GTX ist, müsste es doch am Treiber liegen.
Oder verwendet XBit eine 65nm 260GTX Karte? Das ist für mich nicht ganz offensichtlich.
ich vermute du liegst da richtig. der betatreiber ists.
gamestar schrieb gestern:
"Im Leerlauf konnte AMD den Stromverbrauch allerdings von 90 Watt um ein Drittel auf 60 Watt drücken."
weiß jetzt aber nicht, welchen treiber die für den bericht gestern benutzten. weil der bericht ja auch vor der nda war. wohl dann auch der 9.3
Zuletzt bearbeitet:
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
ich vermute du liegst da richtig. der betatreiber ists.
gamestar schrieb gestern:
"Im Leerlauf konnte AMD den Stromverbrauch allerdings von 90 Watt um ein Drittel auf 60 Watt drücken."
weiß jetzt aber nicht, welchen treiber die für den bericht gestern benutzten. weil der bericht ja auch vor der nda war. wohl dann auch der 9.3
Der Test ist der größte Witz im Netz, die haben einfach die AMD Werte aus den Folien, die bereits vorher geleakt waren, übernommen.
Zum Treiber selbst: Ich habe mit ein paar Reviewern gesprochen und bei einigen war der Treiber sehr zickig und bei anderen hat er gar keine Probleme bereitet.
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
Ich hab mich bei Gamestar mal umgeschaut, da steht doch dabei das der 9.3 verwendet wurde, unter jedem Benchmark.
Dann sieht es für sehr stark danach aus das es doch am Treiber liegt. Wäre toll wenn P3D das mal testen und bestätigen könnte.
Dann sieht es für sehr stark danach aus das es doch am Treiber liegt. Wäre toll wenn P3D das mal testen und bestätigen könnte.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Ich hab mich bei Gamestar mal umgeschaut, da steht doch dabei das der 9.3 verwendet wurde, unter jedem Benchmark.
Dann sieht es für sehr stark danach aus das es doch am Treiber liegt. Wäre toll wenn P3D das mal testen und bestätigen könnte.
stimmt. untem im kleingedruckten. soweit bin ich dann net gekommen.
sollt vielleicht mal nach fielmann.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Interessante Leistungsaufnahme, sieht so aus als gäbe es für mich keine Alternative zu meiner 3870? Betreibe das ganze in einem HTPC, da kommts mir auf niedrige Idlewerte an, gezockt wird eh eher selten.
Wozu alternativen die leistungsfähiger sind? In ein HTPC gehört eigentlich noch nicht mal eine 3870 wenn man eh selten spielt. Da würde ich mir was noch sehr viel sparsameres und leiseres greifen.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Wozu alternativen die leistungsfähiger sind? In ein HTPC gehört eigentlich noch nicht mal eine 3870 wenn man eh selten spielt. Da würde ich mir was noch sehr viel sparsameres und leiseres greifen.
Najo bei mir is das Ding mehr ein Consolen/DVD-Player/HD-Player-ersatz, sprich läuft eh nicht so oft. Imo ist das ganze noch in einem Miditower und steht hier rum, kommt demnächst aber in das hier http://www.caseking.de/shop/catalog/Gehaeuse/HTPC-Gehaeuse/Antec-Fusion-Remote-black::11355.html rein.
Wozu ne Spielkonsole kaufen, wenn man alles in einem haben kann Zum Musikhören/Surfen/Filesharing hab ich n 12" Laptop auf dem Wohnzimmertisch. Imo Stinkt mich nur die Kabelei an, brauchbare Bluetooth Audioreceiver sind sehr teuer und rahr gesäät.
Sway Dizzle
Grand Admiral Special
Naja,angeblich hatten sie ein defektes Testmuster.
"Bereits im Intro dieses Artikels haben wir erwähnt, dass wir im Verlauf des Tests auf Probleme stießen. Wir mussten am gestrigen Tag schlussendlich eingestehen, dass wir es mit einem defekten Testmuster zu tun haben müssen. Unsere Kollegen bestätigten auf Rückfragen, dass dort derartige Probleme nicht auftraten.
Wie sahen die Probleme aus? Das ist schnell erklärt. Im normalen Betrieb (auch in Benchmarks) konnten wir kein ungewöhnliches Verhalten feststellen, allerdings dann unter maximaler Last mit Furmark. Hier brauchte der Furmark-Test lediglich Zeiten von 20 bis 40 Sekunden, bis das System abstürzte. Mal mit einem Neustart, mal mit einem Blue-Screen. Alle Versuche hier Abhilfe zu schaffen führten ins Leere.
Da wir allerdings nun bei Leistungsaufnahme, Temperaturen und Lautstärkeverhalten Furmark seit einigen Wochen als schlichte Größe bei unseren Messungen führen, bleibt unser Test vorerst unvollständig. Auch auf das Kapitel Overclocking müssen wir vollständig verzichten, denn eine instabile Karte weiter zu belasten macht keinen Sinn."
KGBerlin
Grand Admiral Special
Ich hab den Trend erkannt
2. Rechner als Spiele PC ^^
Aber den gesteigerten Verbauch gegenüber der 4870 find ich schon etwas hart.
Wo soll das hingehen ? Hausreaktor für den Strom und Tiefkühler auf der Karte ?
Das Green IT nur eine Seifenblase war, war klar aber so langsam könnten die mal was in diese Richtung unternehmen. Was nützt mir Leistung wenn mir dabei der Hintern wegfackelt ?!?!?
Die entweder oder Zeiten sind langsam aber sicher vorbei....
2. Rechner als Spiele PC ^^
Aber den gesteigerten Verbauch gegenüber der 4870 find ich schon etwas hart.
Wo soll das hingehen ? Hausreaktor für den Strom und Tiefkühler auf der Karte ?
Das Green IT nur eine Seifenblase war, war klar aber so langsam könnten die mal was in diese Richtung unternehmen. Was nützt mir Leistung wenn mir dabei der Hintern wegfackelt ?!?!?
Die entweder oder Zeiten sind langsam aber sicher vorbei....
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
ICh weiß nicht, wenn man mal das Verhältnis anschaut wie die Leistung im Vergleich zum Verbrauch steigt, so steigt die Leistung weit schneller als der Verbrauch. Allgemein gesprochen.
Das ist zumindest schon mal etwas.
Ein K6 III 450 hatte eine TDP von 30W, eine aktuelle CPU mit 95W bietet aber ein vielfaches der Leistung. Bei Grafikkarten sieht es ähnlich aus.
Man kann schlecht erwarten das der Verbrauch plötzlich um die Hälfte niedriger ist als bei eienr Karte die 5 mal langsamer ist. Nur mal so sporadisch ausgesprochen.
Sicher ist der Idleverbrauch recht hoch, aber das liegt wohl eher daran das die Treiber oder das Bios einfach schlecht abgestimmt sind. Das man deutlich mehr sparen könnte wenn man z.B. das Bios verändert sieht man ja auf vielen Seiten deutlich. Warum das aber die Hersteller selbst nicht auf die Reihe bekommen ist mir unverständlich.
Was ich auch nicht verstehe, bei CPUs ist man in der Lage bestimmte Teile der CPU IDle zu deaktivieren, warum geht das nicht bei GPUs?
Das ist zumindest schon mal etwas.
Ein K6 III 450 hatte eine TDP von 30W, eine aktuelle CPU mit 95W bietet aber ein vielfaches der Leistung. Bei Grafikkarten sieht es ähnlich aus.
Man kann schlecht erwarten das der Verbrauch plötzlich um die Hälfte niedriger ist als bei eienr Karte die 5 mal langsamer ist. Nur mal so sporadisch ausgesprochen.
Sicher ist der Idleverbrauch recht hoch, aber das liegt wohl eher daran das die Treiber oder das Bios einfach schlecht abgestimmt sind. Das man deutlich mehr sparen könnte wenn man z.B. das Bios verändert sieht man ja auf vielen Seiten deutlich. Warum das aber die Hersteller selbst nicht auf die Reihe bekommen ist mir unverständlich.
Was ich auch nicht verstehe, bei CPUs ist man in der Lage bestimmte Teile der CPU IDle zu deaktivieren, warum geht das nicht bei GPUs?
Redphil
Grand Admiral Special
- Mitglied seit
- 13.02.2004
- Beiträge
- 6.415
- Renomée
- 152
- Standort
- L, FG
- Mein Laptop
- Dell Vostro 1510 mit Celeron-M 540
- Prozessor
- Intel Pentium G6950
- Mainboard
- Intel DP55KG
- Kühlung
- Scythe Yasya
- Speicher
- 4 GB Crucial Tracer DDR3
- Grafikprozessor
- Sapphire Radeon HD 5830
- Display
- EIZO S1901
- HDD
- WD800HLFS; WD6400AAKS
- Optisches Laufwerk
- Samsung SH-S203N
- Gehäuse
- Lian-Li PC-P60
- Netzteil
- PC Power&Cooling Silencer Quad Crossfire
- Betriebssystem
- Win7
- Webbrowser
- Firefox
Das Green IT nur eine Seifenblase war, war klar aber so langsam könnten die mal was in diese Richtung unternehmen. Was nützt mir Leistung wenn mir dabei der Hintern wegfackelt ?!?!?
Ist imho zu pauschal. Daß es durchaus GraKas giebt, die es besser machen, habe ich oben schon dargelegt.
Zumal hier auch die Konsumenten in die Pflicht zu nehmen. Wer weiter Grakas mit utopischen IDLE-Verbräuchen kauft, braucht sich auch nicht zu wundern, wenn die Hersteller nur zögerlich entsprechende Schritte zur Verbrauchsreduzierung einleiten.
Solange letztlich doch fast nur die Leistung Kaufkriterium ist, werden die Anstrengungen natürlich darauf konzentriert, zumal in der Situation des heftigen Konkurrenzkampfs.
Hier fehlt afaik auch einfach noch das nötige Bewusstsein der Konsumenten (sowohl ökologischer, als auch ökonomischer Natur). Da darf man sich auch nicht davon täuschen lassen, wie sehr Verbrauch hier im Forum eine Rolle spielt, ist schließlich nicht repräsentativ.
U
User002
Guest
Mir scheint es so, als ob unabhängig vom Fertigungsverfahren die GPU-Architekturen - sei es von ATI oder NVIDIA erst in den kommenden Chipgenerationen merklich geringeren Idle Stromverbrauch haben.
Zu Nvidia Grafikkarten. Also über den grünen Klee loben muss man die aktuell nun auch nicht wirklich...
Die GTX 275 verbraucht auch gute 30 Watt zu viel im Idle wenn man sie mit ner Radeon 4670 vergleicht und ist von dem Standpunkt her gesehen genauso indiskutabel in einem 24/7 BOINC Rechner der nur gelegentlich zum spielen genutzt wird. Zumal das Topmodell GTX 285 beim Computerbase Test sogar geringeren Stromverbrauch aufweist, als das kleinere und heute vorgestellte Modell GTX 275. Hier könnte man genauso spekulieren und zumindest als Randnotiz bemerken, das Nvidias Stromsparfeatures hier beim neuen Produkt schlechter umgesetzt wurden und hier keine Kontinuität besteht...
http://www.computerbase.de/artikel/...force_gtx_275/26/#abschnitt_leistungsaufnahme
Will hier keine Haare in der Suppe suchen, aber einen Kaufgrund für oder gegen ein Produkt kann ich hier aktuell nicht festmachen. Grafikkarten vor 2 Jahren (G80 Ultra) haben im Idle 120 Watt was weiss ich was Stromverbrauch gehabt. Es ist wahrscheinlich, das eine Geforce XY im jahr 2010 im Idle nur 5 Watt Stromverbrauch hat, und bei ATI wird es auch nicht viel anders ausschauen (Spekulation) Mitz meiner Kaufentscheidung kann ich da aktuell gar nichts mehr bewegen bzgl Produktentwicklung...Nach und nach werden da beide Hersteller nachziehen und mal ist halt der eine schneller - mal der andere..
Just my 5 Cents..
Grüße!
Zu Nvidia Grafikkarten. Also über den grünen Klee loben muss man die aktuell nun auch nicht wirklich...
Die GTX 275 verbraucht auch gute 30 Watt zu viel im Idle wenn man sie mit ner Radeon 4670 vergleicht und ist von dem Standpunkt her gesehen genauso indiskutabel in einem 24/7 BOINC Rechner der nur gelegentlich zum spielen genutzt wird. Zumal das Topmodell GTX 285 beim Computerbase Test sogar geringeren Stromverbrauch aufweist, als das kleinere und heute vorgestellte Modell GTX 275. Hier könnte man genauso spekulieren und zumindest als Randnotiz bemerken, das Nvidias Stromsparfeatures hier beim neuen Produkt schlechter umgesetzt wurden und hier keine Kontinuität besteht...
http://www.computerbase.de/artikel/...force_gtx_275/26/#abschnitt_leistungsaufnahme
Will hier keine Haare in der Suppe suchen, aber einen Kaufgrund für oder gegen ein Produkt kann ich hier aktuell nicht festmachen. Grafikkarten vor 2 Jahren (G80 Ultra) haben im Idle 120 Watt was weiss ich was Stromverbrauch gehabt. Es ist wahrscheinlich, das eine Geforce XY im jahr 2010 im Idle nur 5 Watt Stromverbrauch hat, und bei ATI wird es auch nicht viel anders ausschauen (Spekulation) Mitz meiner Kaufentscheidung kann ich da aktuell gar nichts mehr bewegen bzgl Produktentwicklung...Nach und nach werden da beide Hersteller nachziehen und mal ist halt der eine schneller - mal der andere..
Just my 5 Cents..
Grüße!
Zuletzt bearbeitet:
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Dein Wort in Gottes Ohr, ich für meinen Teil bin nach den großspurigen Ankündigungen von <10W idle beim RV770 und der folgenden Ernüchterung nicht so optimistisch ... scheinbar sehen die Hersteller im gehobenen Segment einfach keinen Grund, den obszön hohen Idle-Verbrauch zu senken.
Man muss sich doch nur mal einen Nehalem oder Shanghai ansehen, diese CPUs besitzen annähernd so viele Transistoren wie RV770, verbrauchen aber im Leerlauf einen Bruchteil - klar, man kann das nicht 1:1 vergleichen, die Platine und der RAM wollen ja auch versorgt werden, trotzdem irgendwie ein Armutszeugnis für eine Industriesparte die für sich beansprucht, die klassische CPU teilweise ablösen zu wollen ...
Hoffen wir mal, dass RV740 wirklich auf ein ähnliches idle-Niveau wie HD3850/4760 kommt ...
Allerdings sehe ich das ähnlich wie KG, sinnvoller scheint es mir, einfach 2 Rechner für verschiedene Aufgaben zu verwenden - für Downloads, als Schreibmaschine, zum Surfen und Musikhören tut es auch mein kleines iBook G4 mit 17W idle-Verbrauch, um auf einen solchen Wert zu kommen müsste ich mich mit einem herkömmlichen (und teuren) Desktop-System schon brutal verrenken.
mfG
denton
Man muss sich doch nur mal einen Nehalem oder Shanghai ansehen, diese CPUs besitzen annähernd so viele Transistoren wie RV770, verbrauchen aber im Leerlauf einen Bruchteil - klar, man kann das nicht 1:1 vergleichen, die Platine und der RAM wollen ja auch versorgt werden, trotzdem irgendwie ein Armutszeugnis für eine Industriesparte die für sich beansprucht, die klassische CPU teilweise ablösen zu wollen ...
Hoffen wir mal, dass RV740 wirklich auf ein ähnliches idle-Niveau wie HD3850/4760 kommt ...
Allerdings sehe ich das ähnlich wie KG, sinnvoller scheint es mir, einfach 2 Rechner für verschiedene Aufgaben zu verwenden - für Downloads, als Schreibmaschine, zum Surfen und Musikhören tut es auch mein kleines iBook G4 mit 17W idle-Verbrauch, um auf einen solchen Wert zu kommen müsste ich mich mit einem herkömmlichen (und teuren) Desktop-System schon brutal verrenken.
mfG
denton
Redphil
Grand Admiral Special
- Mitglied seit
- 13.02.2004
- Beiträge
- 6.415
- Renomée
- 152
- Standort
- L, FG
- Mein Laptop
- Dell Vostro 1510 mit Celeron-M 540
- Prozessor
- Intel Pentium G6950
- Mainboard
- Intel DP55KG
- Kühlung
- Scythe Yasya
- Speicher
- 4 GB Crucial Tracer DDR3
- Grafikprozessor
- Sapphire Radeon HD 5830
- Display
- EIZO S1901
- HDD
- WD800HLFS; WD6400AAKS
- Optisches Laufwerk
- Samsung SH-S203N
- Gehäuse
- Lian-Li PC-P60
- Netzteil
- PC Power&Cooling Silencer Quad Crossfire
- Betriebssystem
- Win7
- Webbrowser
- Firefox
Zu Nvidia Grafikkarten. Also über den grünen Klee loben muss man die aktuell nun auch nicht wirklich...
Ich sprach bewußt von "einigermaßen akzeptablen IDLE-Verbrauch", wo da jetzt übermäßiges Lob zu finden ist, kann ich nicht erkennen.
Sehe ich prinzipiell genauso. Zumal die HD4670 für den Gelegenheitsspieler mehr als ausreichend ist, man kann damit auch ein Crysis oder Far Cry 2 sehr annehmbar spielen.Die GTX 275 verbraucht auch gute 30 Watt zu viel im Idle wenn man sie mit ner Radeon 4670 vergleicht und ist von dem Standpunkt her gesehen genauso indiskutabel in einem 24/7 BOINC Rechner der nur gelegentlich zum spielen genutzt wird.
Wenn aber die Leistung einer GraKa der gehobenen Midrange-Klasse gefragt ist, kann man imho den Kauf einer HD4890 eigentlich nicht verantworten. Das sind dann nämlich nochmal 30W mehr, die der Rechner kontinuierlich frisst.
Gerade wenn der PC länger läuft (und nicht nur für Zocksessions angeschaltet wird) ist das doch untragbar. Da sollte man dann imho zumindest zum kleineren Übel greifen.
Wo siehst du das da?Zumal das Topmodell GTX 295 beim Computerbase Test sogar geringeren Stromverbrauch aufweist, als das kleinere und heute vorgestellte Modell GTX 275.
http://www.computerbase.de/artikel/...force_gtx_275/26/#abschnitt_leistungsaufnahme
30W Differenz im IDLE-Verbrauch sind da imho allemal ausschlaggebend. Davon ließe sich ein Trifire-Verbund (!) von HD4670 betreiben... .Will hier keine Haare in der Suppe suchen, aber einen Kaufgrund für oder gegen ein Produkt kann ich hier aktuell nicht festmachen.
.
EDIT :
.
Da müssen erstmal die Anschaffungskosten des Zweitsystems gestemmt werden (wenn Stromersparnis aus ökologischen Gründen eine Rolle spielt, müsste zudem der Energiebedarf für die Fertigung des Zweitsystems erst wieder reingeholt werden).Allerdings sehe ich das ähnlich wie KG, sinnvoller scheint es mir, einfach 2 Rechner für verschiedene Aufgaben zu verwenden - für Downloads, als Schreibmaschine, zum Surfen und Musikhören tut es auch mein kleines iBook G4 mit 17W idle-Verbrauch, um auf einen solchen Wert zu kommen müsste ich mich mit einem herkömmlichen (und teuren) Desktop-System schon brutal verrenken.
Und dann ist das Arbeiten an einem Notebook auf Dauer nicht mit dem Komfort eines Desktopsystems zu vergleichen. Für Kurzeinsätze ok, aber für längeres Arbeiten ist die Kombi aus Desktopsystem und einem ordentlichen Computertisch imho schwer ersetzbar. Bei einem zweiten sparsamen Desktopsystem hat man dann hingegen das Platzproblem.
Ähnliche Themen
- Antworten
- 1K
- Aufrufe
- 72K
- Antworten
- 0
- Aufrufe
- 626
- Antworten
- 731
- Aufrufe
- 51K
- Antworten
- 0
- Aufrufe
- 1K