News Ryzen-Refresh Pinnacle Ridge wird verlöteten Heatspreader erhalten

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Der Aufschrei anfang der Woche war groß, vermutlich auch weil es die Hardware-Gemeinde unvorbereitet traf. AMD stellte am Montag seine neuen APUs mit Codenamen Raven Ridge vor. Obwohl die beiden getesteten Modelle AMD Ryzen 3 2200G und Ryzen 5 2400G durchaus überzeugten und insbesondere die direkten Vorgänger aus dem Hause AMD regelrecht deklassierten, gab es vielenorts nur noch ein Thema.
(…)

» Artikel lesen
 
Mal ehrlich ... der 'Aufschrei' war doch auch nur da, weil man vorher gesagt hat Intels haben minderwertige Zahnpasta unterm HS und AMDs sind hochwertig verlötet. Das hat den Intel Jüngern natürlich nicht geschmeckt. Die schreien jetzt natürlich nachem die APUs bei AMD auch mit Zahnpasta kommen. Das kann ich nachvollziehen. Allerdings macht es schon einen Unterschied eine 350 Euro High End CPU mit Zahnpasta zu versehen oder eine OEM Markt Massenprodukt APU.

Das die High End Reihe von AMD verlötet wird... wer hat da ernsthaft drann gezweifelt.
 
hi
naja wer schreit den ? es gab schon immer apus die TIM hatten bei AMD, es wird hier mal wieder von einigen Seiten ein Schwein durchs Dorf getrieben was es gar nicht gab ...
Reißerische Titel Wählen wie zb. CB um das Thema auch anzuheizen hat normal nichts mit Seriösen News zu tun nur Clicks ...
lg
 
Obwohl die beiden getesteten Modelle AMD Ryzen 3 2200G und Ryzen 5 2400G durchaus überzeugten und insbesondere die direkten Vorgänger aus dem Hause AMD regelrecht deklassierten, gab es vielenorts nur noch ein Thema.</p>
AMD lernt es einfach nicht, daß man ein gutes Produkt nicht zu Müll machen sollte. Was beim 2200G noch so gerade funktioniert wird den 2400G zum Ladenhüter machen, weil wieder einmal ein Produkt von amd sein Potenzial nicht auf die Straße bringt. Was nützt mir die beste APU, wenn sie ständig ins Power Target oder ins Temperaturlimit läuft? Der Ryzen 2400G verlötet oder bessere Wärmeleitpaste bekommen und das Power Target muß angehoben werden, sonst wird das Ding zu dem Preis zum Ladenhüter. Alle Jahre wieder Eseleien von AMD, entweder werden sie nicht schlau oder wollen gar nicht mehr verkaufen.
 
Jemand zog falsche Schlüsse aus dem fragwürdigen Test bei CB, zudem begünstigt durch die Auswahl des Mainboards dessen Bios nur rudimentäre Unterstützung für RR bietet. Die von AMD gestellten Testboards von Gigabreit haben schon weiterenwickelte Biosuntersützung für RR.
 
Ich kann mich seitens der Temperatur nicht beklagen, allerdings nutze ich auch nicht den Boxed Kühler sondern einen alten Scythe Big Shuriken der ersten Generation (noch für die Nasenhalterung) und habe dem einen be quiet! Pure Wings 2 PWM verpasst da mir der flache Lüfter darauf zu laut war und das Mainboard (GA-AB350N-Gaming WIFI) nich sonderlich gut kühlte.
Ich habe bisher nicht viel getestet aber bei Spielen wurde der Prozessor gute 60 °C warm.
 
Warum soll der 2400G Müll sein?
Weil er derzeit 70% teurer ist als ein 2200G und "nur" 10-15% mehr Leistung bringt. Außerdem braucht er bis zu 25% mehr Energie dazu.
Wenn sich da nicht noch einiges ändert, eventuell Probleme im Bios, werde ich mir den sicher nicht kaufen. Der 2200G ist für den nächsten Rechner meiner Frau fest gebucht und vermutlich ein Athlon 200GE für den Wohnzimmer PC. Der 2400G kommt mir irgendwie wie ein FX-9590 vor. Mit aller Gewalt und ohne Rücksicht auf Verluste noch ein wenig mehr Leistung rauspressen.

--- Update ---

Jemand zog falsche Schlüsse aus dem fragwürdigen Test bei CB, zudem begünstigt durch die Auswahl des Mainboards dessen Bios nur rudimentäre Unterstützung für RR bietet. Die von AMD gestellten Testboards von Gigabreit haben schon weiterenwickelte Biosuntersützung für RR.
Eigentlich Golem und Hardwareluxx, aber es scheinen ja wohl bisher alle zum gleichen Ergebnis zu kommen. Wenn AMD noch ein Kaninchen aus dem Hut zaubern könnte wäre es ja schön, aber das glaube ich eher weniger.
 
Weil er derzeit 70% teurer ist als ein 2200G und "nur" 10-15% mehr Leistung bringt. Außerdem braucht er bis zu 25% mehr Energie dazu.
Wenn sich da nicht noch einiges ändert, eventuell Probleme im Bios, werde ich mir den sicher nicht kaufen. Der 2200G ist für den nächsten Rechner meiner Frau fest gebucht und vermutlich ein Athlon 200GE für den Wohnzimmer PC. Der 2400G kommt mir irgendwie wie ein FX-9590 vor. Mit aller Gewalt und ohne Rücksicht auf Verluste noch ein wenig mehr Leistung rauspressen.

Wo hast den diesen Schwachsinn her?
Selbst bei CB leistet er 43% mehr bei 28% mehr Strom.......:]
 
Wo hast den diesen Schwachsinn her?
Selbst bei CB leistet er 43% mehr bei 28% mehr Strom.......:]
Ich hatte nur etwas von 25% mehr Strom geschrieben, aber schön, daß du mich bestätigst und nur weil der 2400G unter der Vorraussetzung, daß nur die CPU Kerne belastet sind 43% mehr Leistung in irgend etwas hat, ist er eben nicht 43% schneller. Jungchen, das ist eine APU! Nur die Leistung bei Belastung von CPU UND GPU interessiert. Ansonsten nimmt man besser eine Intel CPU!
 
@Escom2
Fröhlich am trollen?
Den 65W 2400G mit dem 220W FX-9590 beim Energiebedarf gleich zu setzen ist jedenfalls ne Kunst für sich und wann war das Top Modell der Reihe jemals ein Preiswunder?
Für mich lässt das jedenfalls keine andere Vermutung zu. ;)

--- Update ---

Für dich ist die Leistung der GPU relevant? Warum kommst du dann überhaupt auch nur ansatzweise auf Intel wenn die beiden Raven Ridges bei Spielen durchschnittlich mehr als doppelt so schnell sind? Oder ist das für dich nur relevant wenn es um den Strom Bedarf geht? Ein weiteres Troll Indiz?
 
@Escom2
Fröhlich am trollen?
Den 65W 2400G mit dem 220W FX-9590 beim Energiebedarf gleich zu setzen ist jedenfalls ne Kunst für sich und wann war das Top Modell der Reihe jemals ein Preiswunder?
Für mich lässt das jedenfalls keine andere Vermutung zu. ;)
Im Deutschunterricht beim Thema Textverständnis hattest du wohl eher eine sechs!
Ich sprach von überproportionalem Energieverbrauch für ein paar Prozent mehr Rechenleistung.
TDP Angaben der Hersteller scheinst du ja tatsächlich für voll zu nehmen. Der 2400G saugt bei Volllast 30W! mehr aus der Dose als der 2200G. Ist der 2200G mit 35W angegeben?

Für dich ist die Leistung der GPU relevant? Warum kommst du dann überhaupt auch nur ansatzweise auf Intel wenn die beiden Raven Ridges bei Spielen durchschnittlich mehr als doppelt so schnell sind? Oder ist das für dich nur relevant wenn es um den Strom Bedarf geht? Ein weiteres Troll Indiz?
Auch hier wieder fehlendes Textverständnis!
Casi030 schrieb von toller 43%iger Mehrleistung eines 2400G gegenüber dem 2200G, die der 2400G aber nur hat, wenn ausschließlich die CPU stark belastet wird. Also nur dann, wenn die iGPU nur die Leistung einer Intel 630 iGPU bringt und genau dann ist es sinnvoller eine Intel i5-8400 zu nehmen. Der 2400G macht wieder genau den gleichen Fehler wie die Vorgänger, denn du kannst wieder nur entweder CPU oder GPU voll belasten und somit ist der 2400G sinnvoll wie ein Kropf!
Wenn man auch einen starken GPU Part benötigt nimmt man den 2200G und wenn man eine starke CPU benötigt nimmt man den i5-8400. Ich spreche vom Stand heute! Was AMD am 2400G verbessern kann oder in Zukunft bringt spielt keine Rolle.
 
Das gejammere verstehe ich jetzt auch nicht. Bei default hat das Sys was bei Spielen an der Belastungsgrenze ist gerade mal 100 Watt verbrauch. Und das wird man doch kühl bekommen. Wenn man dann noch hergeht und mit einem passendem MB Spannung und Taktung auf Effizienz trimmt was sollte dann da noch auszusetzen sein.

Nur mal so.

Meine RX Vega56 schafft bei 0.95 Volt max. VCore eine Durchgehenden Boost von um die 1500 MHz bei einem Verbrauch von 150 Watt in der Spitze.

Das es Fertigungstolleranzen gibt die AMD beachten muss ist klar, aber man muss sich schon ein bisschen selber helfen können. Außerdem sind bei APUs wieder ein paar Bauteile eingespart die verrecken können. Also von dem her ein Langlebiges System.
 
Zuletzt bearbeitet:
Bei den Intel-Top-Modellen sind die mitgelieferten Kühler auch nicht zu gebrauchen, wenn man Vollast auf sämtlichen CPU- und GPU-Kernen haben will. Von daher gibt es wenig Grund zum Klagen.
 
Ich hatte nur etwas von 25% mehr Strom geschrieben, aber schön, daß du mich bestätigst und nur weil der 2400G unter der Vorraussetzung, daß nur die CPU Kerne belastet sind 43% mehr Leistung in irgend etwas hat, ist er eben nicht 43% schneller. Jungchen, das ist eine APU! Nur die Leistung bei Belastung von CPU UND GPU interessiert. Ansonsten nimmt man besser eine Intel CPU!

Bei der Spieleleistung sind es 13% mehr Leistung bei 16% an mehr Verbrauch.
Wo genau soll jetzt das Problem liegen?
Stell dir lieber mal die Frage was genau in dem Test abgelaufen ist.
Takteten die CPU Kerne Runter?!
Die iGPU taktet höher und wenn etwas höher Taktet,dann braucht es auch eine höhere Spannung und das machen NUR 3% aus.
Und was soll ich mit ner Intel CPU die als APU total Versagt???
 
@ Escom2
Fehlendes Textverständnis stimmt schon nur scheinst du davon betroffen zu sein.
Nicht der Prozessor saugt entsprechend viel mehr aus der Steckdose sondern das gesammte Testsystem denn der Verbrauch vom Prozessor selbst wurde schließlich nicht gemessen und somit fließen sämmtliche Wandlerverlußte (Netzteil, MoBo) mit ein. All das hat nämlich herzlich wenig mit der TDP zu tuen denn die betrifft ausschließlich den Prozessor selbst. Das einzige was man daraus schließen kann ist das der 2200G seine TDP nicht ausreizt, der 2400G offenbar schon.
Und natürlich wird die APU bei Vollast auf CPU und GPU die Taktfrequenz, höchst warscheinlich der CPU, senken um bei der TDP zu bleiben denn es wäre auch ziemlich schwachsinnig das nicht zu machen. Bei diesem Szenario würde der Chip sonst weit jenseits seiner TDP laufen und es hat auch herzlich wenig mit dem Alltag zu tuen denn wann soll ein solches Szenario da mal auftreten? Bei Spielen macht als aller erstes die GPU dicht bevor die CPU Kerne auch nur ansatzweise an ihre Grenze geraten, also holt man mehr Leistung raus wenn die CPU Kerne gedrosselt werden und das frei gewordene TDP Budget an die GPU geht.
Genau das sieht man ja auch bei dem Computerbase Test. Zwischen der CPU Vollast mit "Cinebench" und der Spiele Last mit "Star Wars Battlefront 2" lagen beim 2400G 4W, also kann man davon ausgehen das etwas gedrosselt wird.
Zwischen dem 2200G und dem 2400G lagen beim Cinebench 23W Systemverbrauch (inkl. Wandlerverlußte), bei der Spiele Last hingegen nur noch 15W, also hat der 2200G mehr Spielraum in seinem TDP Budget. Der 2400G war dabei aber 13% beim Spiel und 43% beim Cinebench schneller. Wo war jetzt nochmal das Problem?

Schaut man dann auch noch auf den Spiele Vergleich zwischenden Intel Chips und dem 2400G auf die Leistung fährt deine Argumentation endgültig gegen die Wand.
Hier saugt der Core i5-8400 gegenüber dem Core i3-8100 (welcher wohl der Gegenspieler der der APUs ist) bei "Star Wars Battlefront 2" 18W mehr aus der Leitung, ist dabei aber 8% langsamer. Da beide die gleiche GPU nutzen scheinen sich die zusätzlichen Kerne negativ auf deren Leistung auszuwirken. Warum das so ist, darüber kann man so nur spekulieren aber vergleicht man den i3 mit dem 2400G dann genemigt sich das System mit dem i3 dabei zwar 40W weniger, der 2400G war dabei aber ca. 3,3x so schnell. Münzt man das auf den i5 um dann lagen zwischen beiden nur noch 22W, der 2400G war aber ca. 3,5x so schnell. Bei "Cinebench" ist der Intel Chip zwar effizienter (2200G ca. so schnell wie der gleich teure i3-8100 aber +27W System Verbrauch, der teurere 2400G + 50W System Verbauch aber ca. 40% schneller.
Der inzwischen etwas teurere i5 ist bei Cinebench zwar ca. 60% schneller als der i3, genemigt sich aber auch 23W mehr aus der Steckdose und das obwohl alle die 65W TDP Klasse haben.
Um aber noch ein bischen Sachverständnis mit rein zu bringen, die Intel Chips können in dem Bereich ihr TDP Budget überhaupt nicht ausreizen denn sie brauchen noch Spielraum für den AVX(2) Modus, damit deren Taktfrequenz dort nicht allso massiv gesenkt werden muss. Die AMD Chips haben das meines Wissens nach nicht nötig.
 
@ Escom2
Und wenn man Rechnen kann,dann ist der R5 2400G P/L genau so Teuer.
96EU : 4K = 24EU pro Kern x 5K =120EU somit + 24EU
96EU : 8CU=12EU pro CU +11CU =132EU somit +36EU

Machen 156EU für den R5 2400G

Wenn das von Testen,Programmen,vom Compiler nicht Umgesetzt wird,ist das doch nicht AMDs schuld.
Ein Porsche,Lambo........ kostet auch nicht NUR so viel wie ein Mittelklasse Wagen nur weil beide auf der Autobahn nur 130 fahren dürfen.

Ein i3 kostet 102EU und ist 29% langsamer als der i5.
Somit müsst der i5 132EU kosten,da er aber 174EU kostet darf man ihn nach Deiner Ansicht gar nicht mehr kaufen.
Vom i7 brauch ich gar nicht erst anfangen.....

AMD macht alles Richtig und genau das schein Dein Problem zu sein.
https://geizhals.de/?cmp=1699931&cmp=1699930&cmp=1685281
https://www.computerbase.de/2017-10.../4/#diagramm-gesamtrating-anwendungen-windows
 
Zuletzt bearbeitet:
Ich kann das Geheule auch nicht nachvollziehen. Mit Sachverständnis ist ein Vergleich zum FX-9590 absolut untauglich, in wirklich allen Belangen. Dass etwas P/L Verhältnis und oft auch die Energieeffizienz bei den höher ausgefahrenen SKUs eines Chips im Vergleich zu den am geringsten getakteten schlechter ist, das ist so normal wie es nur sein kann.
In dem Fall sogar vernachlässigbar. Und wie immer ist die Frage der hauptsächlichen Anwendung, für welche man die APU einsetzen möchte, viel relevanter.
Ich würde 8 Threads zumeist vorziehen. Für ein sehr günstiges System wäre der kleine RR jedoch optimal.
 
Sachverständnis bei dir? Da lachen ja die Hühner!
Du warst nicht zu überhören.....
Dir ist aber schon klar das Hühner nicht die Intelligentesten sind?!
Deswegen werden auch gerne mal die Autovergleiche genommen,da Hühner leider NUR auf nen sehr gering zweistelligen IQ kommen.....

Naja um mal in DEINEN Kreisen zu bleiben,NUR Idioten kaufen sich zum Rippen nen Intel.
Der R7 1800x ist selbst in Cinebench bis zu 14% Schneller,die CPU Idle/Last verbraucht dafür MAX das gleiche gegenüber der i7 Intelgurke .
Kostet über 25EU weniger.
UND Säuft unter AVX nicht mal eben 44Watt mehr.

Kann natürlich gut sein das dir das dein Intelhaufen nicht anzeigt,deswegen wäre es echt sinnvoller für dich und Intelligenter auf ARM um zu steigen bevor es zu spät ist.

https://www.computerbase.de/2017-10...400-8350k-8100-test/4/#diagramm-cinebench-r15
https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/6/
 
Ich glaub, gegenseitige Vorwürfe bringen in so einer Diskussion nix (mehr).

Wenn der 2400G irgendwo schon billiger geworden ist, dann ist das ein Grund mehr, dass er nicht verlötet ist. Man nimmt die early adopter noch mit in der ersten Runde und später geht dann der Massenmarkt los.
CPUs bleiben selten lange bei ihrem UVP. Die Ryzens waren nach einem Monat auch schon sehr viel günstiger. Und die sind ja bekanntlich verlötet.
Solche APUs landen zudem auch gern in Fertig-PCs. Und deren Hersteller bekommen sicherlich ordentliche Rabatte, da kommt es ebenfalls auf jeden Cent an.
 
Du warst nicht zu überhören.....
Dir ist aber schon klar das Hühner nicht die Intelligentesten sind?!
Deswegen werden auch gerne mal die Autovergleiche genommen,da Hühner leider NUR auf nen sehr gering zweistelligen IQ kommen.....
Damit mußt du dich an Sompe wenden, ist seine Baustelle.
Naja um mal in DEINEN Kreisen zu bleiben,NUR Idioten kaufen sich zum Rippen nen Intel.
Der R7 1800x ist selbst in Cinebench bis zu 14% Schneller,die CPU Idle/Last verbraucht dafür MAX das gleiche gegenüber der i7 Intelgurke .
Kostet über 25EU weniger.
UND Säuft unter AVX nicht mal eben 44Watt mehr.
Und den Monitor schließt du dann am x des 1800 an, das war wohl nix. Entscheidet euch gefälligst was ihr betrachten wollt! CPU, APU oder Gesamtsystem.
Kann natürlich gut sein das dir das dein Intelhaufen nicht anzeigt,deswegen wäre es echt sinnvoller für dich und Intelligenter auf ARM um zu steigen bevor es zu spät ist.
Macht der schwerlich, denn der letzte Intel war ein i5 480m und der hat sich selbst entlötet und ist auf dem Müll gelandet.
Im Moment laufen bei mir 1X Carrizo, 1X Kaveri und 2X Jaguar.
Der nächste Rechner wird irgendetwas mit Zen sein, aber bei den Speicherpreisen wohl erst in 1-2 Jahren.
 
Du kannst betrachten was du willst,beim Ryzen packst noch ne kleine Graka rein die Idle um 5Watt liegt ,macht den Kohl auch nicht Fetter.
Dafür hat die deutlich mehr Rechenleistung in Spielen,und Rendern.

Wenn du 4 APUs hast(oder 3+ Athlon),warum schreibst dann so'n Schwachsinn?
 
Newsartikel schrieb:
AMD hat sich derartige Sparmaßnahmen bisher verkniffen.
Nope.
AMD hat das hin und wieder immer mal gemacht.
Was mir so einfällt sind die letzten (65nm) K8 Prozessoren, Kaveri wurde ja schon erwähnt und wer schaut, wird sicher noch einiges finden.

Daumenregel:
Ist etwas bei AMD als High(er) End zu sehen, ist es verlötet.
Ist es eher "Budget Ware", ist es eher nicht verlötet...
Meines Wissens nach sind alle Phenome verlötet. Bei den Athlons ist die Frage, ob das der Fall war. Würde aber von "eher nicht" ausgehen.
Die FXen waren verlötet, die auf BD basierenden APUs nicht immer (oder überhaupt??)

Und da ist der Unterschied...


Dass ein i3 nicht verlötet ist, da kann man sich die Köpfe einschlagen.
Aber dass ein i7 nicht verlötet ist, geht gar nicht. Insbesondere die deutlich teureren K-Modelle...

AMD macht alles Richtig
Nein!
Es steht AMD drauf und nicht nVidia oder Intel...
 
Zurück
Oben Unten