App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Ryzen-Refresh Pinnacle Ridge wird verlöteten Heatspreader erhalten
- Ersteller Nero24
- Erstellt am
-
- Schlagworte
- heatspreader pinnacle ridge raven ridge
Der Aufschrei anfang der Woche war groß, vermutlich auch weil es die Hardware-Gemeinde unvorbereitet traf. AMD stellte am Montag seine neuen APUs mit Codenamen Raven Ridge vor. Obwohl die beiden getesteten Modelle AMD Ryzen 3 2200G und Ryzen 5 2400G durchaus überzeugten und insbesondere die direkten Vorgänger aus dem Hause AMD regelrecht deklassierten, gab es vielenorts nur noch ein Thema.
(…)
» Artikel lesen
(…)
» Artikel lesen
Hotstepper
Vice Admiral Special
- Mitglied seit
- 12.04.2005
- Beiträge
- 831
- Renomée
- 117
Mal ehrlich ... der 'Aufschrei' war doch auch nur da, weil man vorher gesagt hat Intels haben minderwertige Zahnpasta unterm HS und AMDs sind hochwertig verlötet. Das hat den Intel Jüngern natürlich nicht geschmeckt. Die schreien jetzt natürlich nachem die APUs bei AMD auch mit Zahnpasta kommen. Das kann ich nachvollziehen. Allerdings macht es schon einen Unterschied eine 350 Euro High End CPU mit Zahnpasta zu versehen oder eine OEM Markt Massenprodukt APU.
Das die High End Reihe von AMD verlötet wird... wer hat da ernsthaft drann gezweifelt.
Das die High End Reihe von AMD verlötet wird... wer hat da ernsthaft drann gezweifelt.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
hi
naja wer schreit den ? es gab schon immer apus die TIM hatten bei AMD, es wird hier mal wieder von einigen Seiten ein Schwein durchs Dorf getrieben was es gar nicht gab ...
Reißerische Titel Wählen wie zb. CB um das Thema auch anzuheizen hat normal nichts mit Seriösen News zu tun nur Clicks ...
lg
naja wer schreit den ? es gab schon immer apus die TIM hatten bei AMD, es wird hier mal wieder von einigen Seiten ein Schwein durchs Dorf getrieben was es gar nicht gab ...
Reißerische Titel Wählen wie zb. CB um das Thema auch anzuheizen hat normal nichts mit Seriösen News zu tun nur Clicks ...
lg
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
FM1 bis FM2+ war doch auch nicht verlötet? AM2 bis AM3+ war verlötet. Jetzt geht es wie bisher weiter!AMD hat sich derartige Sparmaßnahmen bisher verkniffen.
AMD lernt es einfach nicht, daß man ein gutes Produkt nicht zu Müll machen sollte. Was beim 2200G noch so gerade funktioniert wird den 2400G zum Ladenhüter machen, weil wieder einmal ein Produkt von amd sein Potenzial nicht auf die Straße bringt. Was nützt mir die beste APU, wenn sie ständig ins Power Target oder ins Temperaturlimit läuft? Der Ryzen 2400G verlötet oder bessere Wärmeleitpaste bekommen und das Power Target muß angehoben werden, sonst wird das Ding zu dem Preis zum Ladenhüter. Alle Jahre wieder Eseleien von AMD, entweder werden sie nicht schlau oder wollen gar nicht mehr verkaufen.Obwohl die beiden getesteten Modelle AMD Ryzen 3 2200G und Ryzen 5 2400G durchaus überzeugten und insbesondere die direkten Vorgänger aus dem Hause AMD regelrecht deklassierten, gab es vielenorts nur noch ein Thema.</p>
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Warum soll der 2400G Müll sein?
Denniss
Grand Admiral Special
- Mitglied seit
- 25.04.2002
- Beiträge
- 4.921
- Renomée
- 63
- Standort
- Region Hannover
- Prozessor
- AMD Phenom II X6 1050T
- Mainboard
- Asrock M3A770DE
- Kühlung
- Alpenföhn Ben Nevis
- Speicher
- Kingston 2x 8 GiB PC3-12800
- Grafikprozessor
- Radeon RX 460 2 GiB
- Display
- Asus VS 278
- SSD
- 2x 480GB Crucial BX300, 1TB Crucial MX500
- HDD
- 4TB WD Red
- Optisches Laufwerk
- LG DVD-Brenner
- Soundkarte
- VIA Envy24
- Netzteil
- 400W Pure Power 11
- Tastatur
- Cherry
- Betriebssystem
- Win7 x64
- Webbrowser
- FF + SM
Jemand zog falsche Schlüsse aus dem fragwürdigen Test bei CB, zudem begünstigt durch die Auswahl des Mainboards dessen Bios nur rudimentäre Unterstützung für RR bietet. Die von AMD gestellten Testboards von Gigabreit haben schon weiterenwickelte Biosuntersützung für RR.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.330
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich kann mich seitens der Temperatur nicht beklagen, allerdings nutze ich auch nicht den Boxed Kühler sondern einen alten Scythe Big Shuriken der ersten Generation (noch für die Nasenhalterung) und habe dem einen be quiet! Pure Wings 2 PWM verpasst da mir der flache Lüfter darauf zu laut war und das Mainboard (GA-AB350N-Gaming WIFI) nich sonderlich gut kühlte.
Ich habe bisher nicht viel getestet aber bei Spielen wurde der Prozessor gute 60 °C warm.
Ich habe bisher nicht viel getestet aber bei Spielen wurde der Prozessor gute 60 °C warm.
Weil er derzeit 70% teurer ist als ein 2200G und "nur" 10-15% mehr Leistung bringt. Außerdem braucht er bis zu 25% mehr Energie dazu.Warum soll der 2400G Müll sein?
Wenn sich da nicht noch einiges ändert, eventuell Probleme im Bios, werde ich mir den sicher nicht kaufen. Der 2200G ist für den nächsten Rechner meiner Frau fest gebucht und vermutlich ein Athlon 200GE für den Wohnzimmer PC. Der 2400G kommt mir irgendwie wie ein FX-9590 vor. Mit aller Gewalt und ohne Rücksicht auf Verluste noch ein wenig mehr Leistung rauspressen.
--- Update ---
Eigentlich Golem und Hardwareluxx, aber es scheinen ja wohl bisher alle zum gleichen Ergebnis zu kommen. Wenn AMD noch ein Kaninchen aus dem Hut zaubern könnte wäre es ja schön, aber das glaube ich eher weniger.Jemand zog falsche Schlüsse aus dem fragwürdigen Test bei CB, zudem begünstigt durch die Auswahl des Mainboards dessen Bios nur rudimentäre Unterstützung für RR bietet. Die von AMD gestellten Testboards von Gigabreit haben schon weiterenwickelte Biosuntersützung für RR.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Weil er derzeit 70% teurer ist als ein 2200G und "nur" 10-15% mehr Leistung bringt. Außerdem braucht er bis zu 25% mehr Energie dazu.
Wenn sich da nicht noch einiges ändert, eventuell Probleme im Bios, werde ich mir den sicher nicht kaufen. Der 2200G ist für den nächsten Rechner meiner Frau fest gebucht und vermutlich ein Athlon 200GE für den Wohnzimmer PC. Der 2400G kommt mir irgendwie wie ein FX-9590 vor. Mit aller Gewalt und ohne Rücksicht auf Verluste noch ein wenig mehr Leistung rauspressen.
Wo hast den diesen Schwachsinn her?
Selbst bei CB leistet er 43% mehr bei 28% mehr Strom.......
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Meinst du die Anwort echt ernst?
Ich hatte nur etwas von 25% mehr Strom geschrieben, aber schön, daß du mich bestätigst und nur weil der 2400G unter der Vorraussetzung, daß nur die CPU Kerne belastet sind 43% mehr Leistung in irgend etwas hat, ist er eben nicht 43% schneller. Jungchen, das ist eine APU! Nur die Leistung bei Belastung von CPU UND GPU interessiert. Ansonsten nimmt man besser eine Intel CPU!Wo hast den diesen Schwachsinn her?
Selbst bei CB leistet er 43% mehr bei 28% mehr Strom.......
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.330
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Escom2
Fröhlich am trollen?
Den 65W 2400G mit dem 220W FX-9590 beim Energiebedarf gleich zu setzen ist jedenfalls ne Kunst für sich und wann war das Top Modell der Reihe jemals ein Preiswunder?
Für mich lässt das jedenfalls keine andere Vermutung zu.
--- Update ---
Für dich ist die Leistung der GPU relevant? Warum kommst du dann überhaupt auch nur ansatzweise auf Intel wenn die beiden Raven Ridges bei Spielen durchschnittlich mehr als doppelt so schnell sind? Oder ist das für dich nur relevant wenn es um den Strom Bedarf geht? Ein weiteres Troll Indiz?
Fröhlich am trollen?
Den 65W 2400G mit dem 220W FX-9590 beim Energiebedarf gleich zu setzen ist jedenfalls ne Kunst für sich und wann war das Top Modell der Reihe jemals ein Preiswunder?
Für mich lässt das jedenfalls keine andere Vermutung zu.
--- Update ---
Für dich ist die Leistung der GPU relevant? Warum kommst du dann überhaupt auch nur ansatzweise auf Intel wenn die beiden Raven Ridges bei Spielen durchschnittlich mehr als doppelt so schnell sind? Oder ist das für dich nur relevant wenn es um den Strom Bedarf geht? Ein weiteres Troll Indiz?
Im Deutschunterricht beim Thema Textverständnis hattest du wohl eher eine sechs!@Escom2
Fröhlich am trollen?
Den 65W 2400G mit dem 220W FX-9590 beim Energiebedarf gleich zu setzen ist jedenfalls ne Kunst für sich und wann war das Top Modell der Reihe jemals ein Preiswunder?
Für mich lässt das jedenfalls keine andere Vermutung zu.
Ich sprach von überproportionalem Energieverbrauch für ein paar Prozent mehr Rechenleistung.
TDP Angaben der Hersteller scheinst du ja tatsächlich für voll zu nehmen. Der 2400G saugt bei Volllast 30W! mehr aus der Dose als der 2200G. Ist der 2200G mit 35W angegeben?
Auch hier wieder fehlendes Textverständnis!Für dich ist die Leistung der GPU relevant? Warum kommst du dann überhaupt auch nur ansatzweise auf Intel wenn die beiden Raven Ridges bei Spielen durchschnittlich mehr als doppelt so schnell sind? Oder ist das für dich nur relevant wenn es um den Strom Bedarf geht? Ein weiteres Troll Indiz?
Casi030 schrieb von toller 43%iger Mehrleistung eines 2400G gegenüber dem 2200G, die der 2400G aber nur hat, wenn ausschließlich die CPU stark belastet wird. Also nur dann, wenn die iGPU nur die Leistung einer Intel 630 iGPU bringt und genau dann ist es sinnvoller eine Intel i5-8400 zu nehmen. Der 2400G macht wieder genau den gleichen Fehler wie die Vorgänger, denn du kannst wieder nur entweder CPU oder GPU voll belasten und somit ist der 2400G sinnvoll wie ein Kropf!
Wenn man auch einen starken GPU Part benötigt nimmt man den 2200G und wenn man eine starke CPU benötigt nimmt man den i5-8400. Ich spreche vom Stand heute! Was AMD am 2400G verbessern kann oder in Zukunft bringt spielt keine Rolle.
Peet007
Admiral Special
Das gejammere verstehe ich jetzt auch nicht. Bei default hat das Sys was bei Spielen an der Belastungsgrenze ist gerade mal 100 Watt verbrauch. Und das wird man doch kühl bekommen. Wenn man dann noch hergeht und mit einem passendem MB Spannung und Taktung auf Effizienz trimmt was sollte dann da noch auszusetzen sein.
Nur mal so.
Meine RX Vega56 schafft bei 0.95 Volt max. VCore eine Durchgehenden Boost von um die 1500 MHz bei einem Verbrauch von 150 Watt in der Spitze.
Das es Fertigungstolleranzen gibt die AMD beachten muss ist klar, aber man muss sich schon ein bisschen selber helfen können. Außerdem sind bei APUs wieder ein paar Bauteile eingespart die verrecken können. Also von dem her ein Langlebiges System.
Nur mal so.
Meine RX Vega56 schafft bei 0.95 Volt max. VCore eine Durchgehenden Boost von um die 1500 MHz bei einem Verbrauch von 150 Watt in der Spitze.
Das es Fertigungstolleranzen gibt die AMD beachten muss ist klar, aber man muss sich schon ein bisschen selber helfen können. Außerdem sind bei APUs wieder ein paar Bauteile eingespart die verrecken können. Also von dem her ein Langlebiges System.
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.259
- Renomée
- 1.842
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Bei den Intel-Top-Modellen sind die mitgelieferten Kühler auch nicht zu gebrauchen, wenn man Vollast auf sämtlichen CPU- und GPU-Kernen haben will. Von daher gibt es wenig Grund zum Klagen.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Ich hatte nur etwas von 25% mehr Strom geschrieben, aber schön, daß du mich bestätigst und nur weil der 2400G unter der Vorraussetzung, daß nur die CPU Kerne belastet sind 43% mehr Leistung in irgend etwas hat, ist er eben nicht 43% schneller. Jungchen, das ist eine APU! Nur die Leistung bei Belastung von CPU UND GPU interessiert. Ansonsten nimmt man besser eine Intel CPU!
Bei der Spieleleistung sind es 13% mehr Leistung bei 16% an mehr Verbrauch.
Wo genau soll jetzt das Problem liegen?
Stell dir lieber mal die Frage was genau in dem Test abgelaufen ist.
Takteten die CPU Kerne Runter?!
Die iGPU taktet höher und wenn etwas höher Taktet,dann braucht es auch eine höhere Spannung und das machen NUR 3% aus.
Und was soll ich mit ner Intel CPU die als APU total Versagt
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.330
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@ Escom2
Fehlendes Textverständnis stimmt schon nur scheinst du davon betroffen zu sein.
Nicht der Prozessor saugt entsprechend viel mehr aus der Steckdose sondern das gesammte Testsystem denn der Verbrauch vom Prozessor selbst wurde schließlich nicht gemessen und somit fließen sämmtliche Wandlerverlußte (Netzteil, MoBo) mit ein. All das hat nämlich herzlich wenig mit der TDP zu tuen denn die betrifft ausschließlich den Prozessor selbst. Das einzige was man daraus schließen kann ist das der 2200G seine TDP nicht ausreizt, der 2400G offenbar schon.
Und natürlich wird die APU bei Vollast auf CPU und GPU die Taktfrequenz, höchst warscheinlich der CPU, senken um bei der TDP zu bleiben denn es wäre auch ziemlich schwachsinnig das nicht zu machen. Bei diesem Szenario würde der Chip sonst weit jenseits seiner TDP laufen und es hat auch herzlich wenig mit dem Alltag zu tuen denn wann soll ein solches Szenario da mal auftreten? Bei Spielen macht als aller erstes die GPU dicht bevor die CPU Kerne auch nur ansatzweise an ihre Grenze geraten, also holt man mehr Leistung raus wenn die CPU Kerne gedrosselt werden und das frei gewordene TDP Budget an die GPU geht.
Genau das sieht man ja auch bei dem Computerbase Test. Zwischen der CPU Vollast mit "Cinebench" und der Spiele Last mit "Star Wars Battlefront 2" lagen beim 2400G 4W, also kann man davon ausgehen das etwas gedrosselt wird.
Zwischen dem 2200G und dem 2400G lagen beim Cinebench 23W Systemverbrauch (inkl. Wandlerverlußte), bei der Spiele Last hingegen nur noch 15W, also hat der 2200G mehr Spielraum in seinem TDP Budget. Der 2400G war dabei aber 13% beim Spiel und 43% beim Cinebench schneller. Wo war jetzt nochmal das Problem?
Schaut man dann auch noch auf den Spiele Vergleich zwischenden Intel Chips und dem 2400G auf die Leistung fährt deine Argumentation endgültig gegen die Wand.
Hier saugt der Core i5-8400 gegenüber dem Core i3-8100 (welcher wohl der Gegenspieler der der APUs ist) bei "Star Wars Battlefront 2" 18W mehr aus der Leitung, ist dabei aber 8% langsamer. Da beide die gleiche GPU nutzen scheinen sich die zusätzlichen Kerne negativ auf deren Leistung auszuwirken. Warum das so ist, darüber kann man so nur spekulieren aber vergleicht man den i3 mit dem 2400G dann genemigt sich das System mit dem i3 dabei zwar 40W weniger, der 2400G war dabei aber ca. 3,3x so schnell. Münzt man das auf den i5 um dann lagen zwischen beiden nur noch 22W, der 2400G war aber ca. 3,5x so schnell. Bei "Cinebench" ist der Intel Chip zwar effizienter (2200G ca. so schnell wie der gleich teure i3-8100 aber +27W System Verbrauch, der teurere 2400G + 50W System Verbauch aber ca. 40% schneller.
Der inzwischen etwas teurere i5 ist bei Cinebench zwar ca. 60% schneller als der i3, genemigt sich aber auch 23W mehr aus der Steckdose und das obwohl alle die 65W TDP Klasse haben.
Um aber noch ein bischen Sachverständnis mit rein zu bringen, die Intel Chips können in dem Bereich ihr TDP Budget überhaupt nicht ausreizen denn sie brauchen noch Spielraum für den AVX(2) Modus, damit deren Taktfrequenz dort nicht allso massiv gesenkt werden muss. Die AMD Chips haben das meines Wissens nach nicht nötig.
Fehlendes Textverständnis stimmt schon nur scheinst du davon betroffen zu sein.
Nicht der Prozessor saugt entsprechend viel mehr aus der Steckdose sondern das gesammte Testsystem denn der Verbrauch vom Prozessor selbst wurde schließlich nicht gemessen und somit fließen sämmtliche Wandlerverlußte (Netzteil, MoBo) mit ein. All das hat nämlich herzlich wenig mit der TDP zu tuen denn die betrifft ausschließlich den Prozessor selbst. Das einzige was man daraus schließen kann ist das der 2200G seine TDP nicht ausreizt, der 2400G offenbar schon.
Und natürlich wird die APU bei Vollast auf CPU und GPU die Taktfrequenz, höchst warscheinlich der CPU, senken um bei der TDP zu bleiben denn es wäre auch ziemlich schwachsinnig das nicht zu machen. Bei diesem Szenario würde der Chip sonst weit jenseits seiner TDP laufen und es hat auch herzlich wenig mit dem Alltag zu tuen denn wann soll ein solches Szenario da mal auftreten? Bei Spielen macht als aller erstes die GPU dicht bevor die CPU Kerne auch nur ansatzweise an ihre Grenze geraten, also holt man mehr Leistung raus wenn die CPU Kerne gedrosselt werden und das frei gewordene TDP Budget an die GPU geht.
Genau das sieht man ja auch bei dem Computerbase Test. Zwischen der CPU Vollast mit "Cinebench" und der Spiele Last mit "Star Wars Battlefront 2" lagen beim 2400G 4W, also kann man davon ausgehen das etwas gedrosselt wird.
Zwischen dem 2200G und dem 2400G lagen beim Cinebench 23W Systemverbrauch (inkl. Wandlerverlußte), bei der Spiele Last hingegen nur noch 15W, also hat der 2200G mehr Spielraum in seinem TDP Budget. Der 2400G war dabei aber 13% beim Spiel und 43% beim Cinebench schneller. Wo war jetzt nochmal das Problem?
Schaut man dann auch noch auf den Spiele Vergleich zwischenden Intel Chips und dem 2400G auf die Leistung fährt deine Argumentation endgültig gegen die Wand.
Hier saugt der Core i5-8400 gegenüber dem Core i3-8100 (welcher wohl der Gegenspieler der der APUs ist) bei "Star Wars Battlefront 2" 18W mehr aus der Leitung, ist dabei aber 8% langsamer. Da beide die gleiche GPU nutzen scheinen sich die zusätzlichen Kerne negativ auf deren Leistung auszuwirken. Warum das so ist, darüber kann man so nur spekulieren aber vergleicht man den i3 mit dem 2400G dann genemigt sich das System mit dem i3 dabei zwar 40W weniger, der 2400G war dabei aber ca. 3,3x so schnell. Münzt man das auf den i5 um dann lagen zwischen beiden nur noch 22W, der 2400G war aber ca. 3,5x so schnell. Bei "Cinebench" ist der Intel Chip zwar effizienter (2200G ca. so schnell wie der gleich teure i3-8100 aber +27W System Verbrauch, der teurere 2400G + 50W System Verbauch aber ca. 40% schneller.
Der inzwischen etwas teurere i5 ist bei Cinebench zwar ca. 60% schneller als der i3, genemigt sich aber auch 23W mehr aus der Steckdose und das obwohl alle die 65W TDP Klasse haben.
Um aber noch ein bischen Sachverständnis mit rein zu bringen, die Intel Chips können in dem Bereich ihr TDP Budget überhaupt nicht ausreizen denn sie brauchen noch Spielraum für den AVX(2) Modus, damit deren Taktfrequenz dort nicht allso massiv gesenkt werden muss. Die AMD Chips haben das meines Wissens nach nicht nötig.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
@ Escom2
Und wenn man Rechnen kann,dann ist der R5 2400G P/L genau so Teuer.
96EU : 4K = 24EU pro Kern x 5K =120EU somit + 24EU
96EU : 8CU=12EU pro CU +11CU =132EU somit +36EU
Machen 156EU für den R5 2400G
Wenn das von Testen,Programmen,vom Compiler nicht Umgesetzt wird,ist das doch nicht AMDs schuld.
Ein Porsche,Lambo........ kostet auch nicht NUR so viel wie ein Mittelklasse Wagen nur weil beide auf der Autobahn nur 130 fahren dürfen.
Ein i3 kostet 102EU und ist 29% langsamer als der i5.
Somit müsst der i5 132EU kosten,da er aber 174EU kostet darf man ihn nach Deiner Ansicht gar nicht mehr kaufen.
Vom i7 brauch ich gar nicht erst anfangen.....
AMD macht alles Richtig und genau das schein Dein Problem zu sein.
https://geizhals.de/?cmp=1699931&cmp=1699930&cmp=1685281
https://www.computerbase.de/2017-10.../4/#diagramm-gesamtrating-anwendungen-windows
Und wenn man Rechnen kann,dann ist der R5 2400G P/L genau so Teuer.
96EU : 4K = 24EU pro Kern x 5K =120EU somit + 24EU
96EU : 8CU=12EU pro CU +11CU =132EU somit +36EU
Machen 156EU für den R5 2400G
Wenn das von Testen,Programmen,vom Compiler nicht Umgesetzt wird,ist das doch nicht AMDs schuld.
Ein Porsche,Lambo........ kostet auch nicht NUR so viel wie ein Mittelklasse Wagen nur weil beide auf der Autobahn nur 130 fahren dürfen.
Ein i3 kostet 102EU und ist 29% langsamer als der i5.
Somit müsst der i5 132EU kosten,da er aber 174EU kostet darf man ihn nach Deiner Ansicht gar nicht mehr kaufen.
Vom i7 brauch ich gar nicht erst anfangen.....
AMD macht alles Richtig und genau das schein Dein Problem zu sein.
https://geizhals.de/?cmp=1699931&cmp=1699930&cmp=1685281
https://www.computerbase.de/2017-10.../4/#diagramm-gesamtrating-anwendungen-windows
Zuletzt bearbeitet:
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Ich kann das Geheule auch nicht nachvollziehen. Mit Sachverständnis ist ein Vergleich zum FX-9590 absolut untauglich, in wirklich allen Belangen. Dass etwas P/L Verhältnis und oft auch die Energieeffizienz bei den höher ausgefahrenen SKUs eines Chips im Vergleich zu den am geringsten getakteten schlechter ist, das ist so normal wie es nur sein kann.
In dem Fall sogar vernachlässigbar. Und wie immer ist die Frage der hauptsächlichen Anwendung, für welche man die APU einsetzen möchte, viel relevanter.
Ich würde 8 Threads zumeist vorziehen. Für ein sehr günstiges System wäre der kleine RR jedoch optimal.
In dem Fall sogar vernachlässigbar. Und wie immer ist die Frage der hauptsächlichen Anwendung, für welche man die APU einsetzen möchte, viel relevanter.
Ich würde 8 Threads zumeist vorziehen. Für ein sehr günstiges System wäre der kleine RR jedoch optimal.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Du warst nicht zu überhören.....Sachverständnis bei dir? Da lachen ja die Hühner!
Dir ist aber schon klar das Hühner nicht die Intelligentesten sind?!
Deswegen werden auch gerne mal die Autovergleiche genommen,da Hühner leider NUR auf nen sehr gering zweistelligen IQ kommen.....
Naja um mal in DEINEN Kreisen zu bleiben,NUR Idioten kaufen sich zum Rippen nen Intel.
Der R7 1800x ist selbst in Cinebench bis zu 14% Schneller,die CPU Idle/Last verbraucht dafür MAX das gleiche gegenüber der i7 Intelgurke .
Kostet über 25EU weniger.
UND Säuft unter AVX nicht mal eben 44Watt mehr.
Kann natürlich gut sein das dir das dein Intelhaufen nicht anzeigt,deswegen wäre es echt sinnvoller für dich und Intelligenter auf ARM um zu steigen bevor es zu spät ist.
https://www.computerbase.de/2017-10...400-8350k-8100-test/4/#diagramm-cinebench-r15
https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/6/
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.259
- Renomée
- 1.842
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Ich glaub, gegenseitige Vorwürfe bringen in so einer Diskussion nix (mehr).
Wenn der 2400G irgendwo schon billiger geworden ist, dann ist das ein Grund mehr, dass er nicht verlötet ist. Man nimmt die early adopter noch mit in der ersten Runde und später geht dann der Massenmarkt los.
CPUs bleiben selten lange bei ihrem UVP. Die Ryzens waren nach einem Monat auch schon sehr viel günstiger. Und die sind ja bekanntlich verlötet.
Solche APUs landen zudem auch gern in Fertig-PCs. Und deren Hersteller bekommen sicherlich ordentliche Rabatte, da kommt es ebenfalls auf jeden Cent an.
Wenn der 2400G irgendwo schon billiger geworden ist, dann ist das ein Grund mehr, dass er nicht verlötet ist. Man nimmt die early adopter noch mit in der ersten Runde und später geht dann der Massenmarkt los.
CPUs bleiben selten lange bei ihrem UVP. Die Ryzens waren nach einem Monat auch schon sehr viel günstiger. Und die sind ja bekanntlich verlötet.
Solche APUs landen zudem auch gern in Fertig-PCs. Und deren Hersteller bekommen sicherlich ordentliche Rabatte, da kommt es ebenfalls auf jeden Cent an.
Damit mußt du dich an Sompe wenden, ist seine Baustelle.Du warst nicht zu überhören.....
Dir ist aber schon klar das Hühner nicht die Intelligentesten sind?!
Deswegen werden auch gerne mal die Autovergleiche genommen,da Hühner leider NUR auf nen sehr gering zweistelligen IQ kommen.....
Und den Monitor schließt du dann am x des 1800 an, das war wohl nix. Entscheidet euch gefälligst was ihr betrachten wollt! CPU, APU oder Gesamtsystem.Naja um mal in DEINEN Kreisen zu bleiben,NUR Idioten kaufen sich zum Rippen nen Intel.
Der R7 1800x ist selbst in Cinebench bis zu 14% Schneller,die CPU Idle/Last verbraucht dafür MAX das gleiche gegenüber der i7 Intelgurke .
Kostet über 25EU weniger.
UND Säuft unter AVX nicht mal eben 44Watt mehr.
Macht der schwerlich, denn der letzte Intel war ein i5 480m und der hat sich selbst entlötet und ist auf dem Müll gelandet.Kann natürlich gut sein das dir das dein Intelhaufen nicht anzeigt,deswegen wäre es echt sinnvoller für dich und Intelligenter auf ARM um zu steigen bevor es zu spät ist.
Im Moment laufen bei mir 1X Carrizo, 1X Kaveri und 2X Jaguar.
Der nächste Rechner wird irgendetwas mit Zen sein, aber bei den Speicherpreisen wohl erst in 1-2 Jahren.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Du kannst betrachten was du willst,beim Ryzen packst noch ne kleine Graka rein die Idle um 5Watt liegt ,macht den Kohl auch nicht Fetter.
Dafür hat die deutlich mehr Rechenleistung in Spielen,und Rendern.
Wenn du 4 APUs hast(oder 3+ Athlon),warum schreibst dann so'n Schwachsinn?
Dafür hat die deutlich mehr Rechenleistung in Spielen,und Rendern.
Wenn du 4 APUs hast(oder 3+ Athlon),warum schreibst dann so'n Schwachsinn?
Stefan Payne
Grand Admiral Special
Nope.Newsartikel schrieb:AMD hat sich derartige Sparmaßnahmen bisher verkniffen.
AMD hat das hin und wieder immer mal gemacht.
Was mir so einfällt sind die letzten (65nm) K8 Prozessoren, Kaveri wurde ja schon erwähnt und wer schaut, wird sicher noch einiges finden.
Daumenregel:
Ist etwas bei AMD als High(er) End zu sehen, ist es verlötet.
Ist es eher "Budget Ware", ist es eher nicht verlötet...
Meines Wissens nach sind alle Phenome verlötet. Bei den Athlons ist die Frage, ob das der Fall war. Würde aber von "eher nicht" ausgehen.
Die FXen waren verlötet, die auf BD basierenden APUs nicht immer (oder überhaupt??)
Und da ist der Unterschied...
Dass ein i3 nicht verlötet ist, da kann man sich die Köpfe einschlagen.
Aber dass ein i7 nicht verlötet ist, geht gar nicht. Insbesondere die deutlich teureren K-Modelle...
Nein!AMD macht alles Richtig
Es steht AMD drauf und nicht nVidia oder Intel...
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 4K
- Antworten
- 18
- Aufrufe
- 4K