Artikel Zen 2 - AMD Ryzen 7 3700X und Ryzen 9 3900X im Test

BOINC ja, mehrer Projekte eher nein.

BOINC ist relativ zeitaufwändig, es muss ja schließlich eine Weile für sinnvolle Ergebnisse laufen. Für mehrere Prozessoren kommen da schon eine ganze Menge Stunden zusammen, sodass ich es wohl auf ein Projekt beschränken werde. Und das wird Asteroids@Home sein. Und das aus drei Gründen:

1. Die Workunits sind weder extrem kurz noch extrem lang sondern recht angenehm.
2. Mir ist noch kein CPU-Projekt untergekommen, was die Prozessoren derart auslastet. Selbst Prime sieht dagegen wie Kindergeburtstag aus.
3. Alle WUs werden identisch vergütet. Das nimmt eine Variable bei der Berechnung der Punkte pro Tag aus der Gleichung. Macht es halt etwas einfacher.

Ich lasse aber natürlich mit mir reden. ;) Wenn es andere Projekte gibt, die die drei genannten Punkte (annähernd) erfüllen, so kann ich auch über den Tellerrand hinausblicken... :)
Da warte ich sehnlich drauf. Alle anderen Benches interessieren mich eher nicht.

Ansonsten: vielen Dank
a) an's Team für die viele Arbeit für den Artikel
b) an AMD, da sie P3D endlich mal wieder mit Samples bedacht haben

*great*

Gruß,
Ritschie
 
Vielleicht weil man den "modernen" Mist nicht haben will?
Wie soll man dann das OS auf die Moderne Hardware anpassen?
Windows 7 war und ist auch heute noch In Ordnung, aber leider nicht mehr so sicher im WWW und mit DirectX 11 leider auch noch ein Hoffnungloses API Limit.
Also für Spiele die noch kein DirectX 12 per Treiber für Windows 7 bekommen haben wird auch eine neu GPU nicht mehr helfen, weil DirectX bei den Draw Calls Limitiert bevor die Hardware ausgereizt wurde. ;)

Sehr geiler Artikel, allein die Bench Ergebnisse sind schon beeindruckend, aber mit soviel Input nimmt es den Charm eines Roman an. :)

€dit: Bezüglich Linux: https://www.informatik-aktuell.de/aktuelle-meldungen/2019/mai/windows-bekommt-linux-kernel.html ;)
 
Zuletzt bearbeitet:
Warum?

Das kommt allein wegen der Fertigung, die Transistoren wurden einfach auf 12LP portiert, aber man hat da sonst nichts geändert!
Selbst innerhalb der gleichen Fertigung gibt es oftmals Bugfixes in Form der einen oder anderen Maske, die sich dann als Stepping niederschlagen. Da reicht es manchmal schon, wenn eine Leitung in den zig Verdrahtungsebenen ein wenig anders gelegt wird und damit weniger Störungen empfängt/aussendet, wodurch mehr Takt möglich ist.
Ja, es sind dann noch die gleichen Transistoren - aber eine CPU besteht ja nicht nur daraus.
 
Das ist Pinnacle Studio 22 (Avid Studio). Ja, genau das brauche ich, weil ich aus vielen langen clips kurze Szenen rausschnibbeln brauche. Das ist ne andere Vorgehensweise als z.B. Premiere wo man eigentlich im vorhinein nur die Szenen filmt die man haben will und dann trimmt.

Das kann leider nur "Cuda", "Intel (Quicksync)" und "keine". Wollte eben mal wissen was es da bei AMD vergleichbares gibt, dass da richtig anschiebt. Wenns da was gäbe und die Programmierer drauf anspringen könnte da mal was gehen, aber ich bin eher pessimistisch.

Du schneidest dann praktisch nur die Videos, also das alleine kostet keine lange Auslastung.
Dir geht es dann um das Preview, am einfachsten wäre es wenn der Film im VRAM liegt und dann direkt auf der dGPU geschnitten wird.
Radeon hat m.2 für GPUs geplant genau aus diesem Grund, also kein Software Hokuspokus.

Meine letzten Erfahrungen mit Quicksync = schneller aber leider eine schlechtere Ausgabe Bild Qualität als reine CPUs.
 
Es würde sich widersprechen. Eine Leiterbahn geändert = Änderung. Also mehr als nur Transistoren schrumpfen. Aber sieh es einfach als Ergänzung, es ist ja nur Theorie, weil man sowas selten bis gar nicht erfährt. Es hat ja auf die Funktionalität keinerlei Einfluss. Und besseres Übertakten ist keine garantierte Funktionalität.
 
Ja und?
Das muss nichts heißen.
Auch "bekannte" Youtuber machen Feher oder bedienen das Gear falsch.

Schon mal was von David Jones gehört? EEVBLOG??
Der ist gut für Messequipment, aber sobald er was zu Kondensatoren sagt, kannst du alles, was von ihm kommt, vergessen...

Und wie???
Warum beatwortest du die Frage nicht?
Ich schaue mir kein Video von jemandem an, den auch die Leute im Forum von Computerbase als "Biased" bezeichnen.
Also geht es letztendlich nur um deine persönlichen Abneigungen?
Sorry, aber dann bin ich raus, auf der Basis habe ich keine Lust zu diskutieren.

Natürlich ist das Messverfahren nicht perfekt, man könnte beim Messequipment Fehler machen.
Ob er bei der Bedienung Fehler macht kannst du aber sicherlich nicht beurteilen, denn du weigerst dich ja das Video zu schauen …

Kurz zum Messprinzip, was er hier macht ist folgendes:
1. Prüfen wo und welche Spannungsversorgung am Chip anliegt
2. Die entsprechenden Brücken auslöten und stattdessen Kabel anlöten um die Stromleitungen zugänglich rauszuführen
3. Messung des Stroms der durch die Leitungen fließt mittels Stromzange

Die Stromzange hat er dabei auch genullt und man kann auch durchaus sehen wie der Messwert beim Bewegen schwankt.
Da bewegen wir uns (beim Messen) im Bereich von ca. 50 mA.
Da wir jetzt nicht genau wissen wie sich die Ströme auf die Leitungen verteilen kann man den Fehler nicht exakt abschätzen, aber wenn wir mal annehmen, dass alles 3.3V ist (was ja den niedrigsten Strom bedeuten würde), dann würden 8W einen Strom von 2.42 A bedeuten und 50mA sind dann etwa 2% Fehler.

Ich fände es nun natürlich auch schöner, wenn er richtig gutes Equipment für die Messung verwendet hätte und auch noch ein paar Minuten dafür aufgewendet hätte zu erklären ob und wie er systematische Fehler vermeidet, aber unterm Strich muss man sagen, dass das schon genau genug ist.
Selbst wenn wir jetzt annehmen würden, dass er einen systematischen Fehler im Bereich von 30% gemacht hätte (würde grob 2W entsprechen und reicht mindestens um zu zeigen, dass der Verbrauch im Vergleich zu den alten X-Chips signifikant höher ist), dann wäre die Messung immer noch deutlich genauer als das was man über die Messung des Gesamtsystems erreichen kann.
Wenn man genaue Messungen haben will, dann geht das eben nur darüber auch die einzelne Komponente zu isolieren und nicht dadurch zu versuchen sie in einem riesigen Mischmasch herauszufiltern.

--- Update ---

Wie soll man dann das OS auf die Moderne Hardware anpassen?
So wie man das immer gemacht hat?
Zudem ist es ja sicherlich nicht so, dass Windows 7 und 10 komplett unterschiedliche Codebases haben.
Einen Patch zu backporten ist sicherlich Aufwand, aber unter Umständen auch nicht so viel.
Aber darum geht es ja gar nicht, es war sicherlich eine Grundsatzentscheidung von MS Windows 7 nicht mehr zu supporten und das ist auch in Ordnung so.
Ist ja deren Produkt und da können sie die Entscheidungen treffen.
Zudem habe ich ja gar nicht verlangt, dass sie Win 7 auf Ryzen anpassen.
Windows 7 war und ist auch heute noch In Ordnung, aber leider nicht mehr so sicher im WWW und mit DirectX 11 leider auch noch ein Hoffnungloses API Limit.
Beides ist für mich nicht sonderlich relevant.
Eigentlich gibt es nur noch so 3-4 Spiele, für welche ich aktuell strikt Windows benötige, die meisten laufen bereits über DXVK unter Linux.
Selbst DCS World läuft so erstaunlich gut.
Nur die Racing Games wie Assetto Corsa und Assetto Corsa Competizione bereiten mir noch Probleme, da das FFB nicht funktioniert, was aber nicht am Game, sondern am Controller liegt, welcher irgendwelche Dinge nicht so macht wie er sie machen soll.
Wenn das gelöst ist (bin daran das zu analysieren), dann sehe ich wenig Grund, weshalb ich in 2-3 Jahren noch Windows nutzen sollte.
Also für Spiele die noch kein DirectX 12 per Treiber für Windows 7 bekommen haben wird auch eine neu GPU nicht mehr helfen, weil DirectX bei den Draw Calls Limitiert bevor die Hardware ausgereizt wurde. ;)
Schon klar, dass da nicht mehr viel passieren wird.
Das ist leider genau die falsche Richtung.

Zumindest auf dem Desktop gibt es wahrscheinlich niemanden, der einen Linux Kernel unter Windows einsetzen will. *suspect*
Auf Servern kann das ggf. Sinn machen, wobei ich ehrlich gesagt denke, dass die meisten da dann lieber auch gleich ein Linux System aufsetzen.
Macht ja selbst MS inzwischen bei der Azure Cloud.
 
Die Leitungen ? Hoffen wir mal das er nicht versäntlich ne rückleotung erwischt hat bzw ne Leitung die noch wo ander hingeht *buck*
Ohne ihn was unterstellen zu wollennkann leicht passiern
Generell stimmt ich aber zu das nur Messungen mit Profi Equipment zu vertrauem sind.
Klar ist es nicht zumutbar das privat Persone oder seiten wie P3D sich für 5000euro ein Messgeräte kaufen.
Muss aber dann auch im Hinterkopf behalten das messergäbnise gerne mal ein ganzes Stück daneben liegen, kann mich noch gut an mein Schulzeit erinnern wo wir so ein messergeräte mit versogender Spannung ein Fehler von fast 300% messen konnten ;D
Daher als kleiner Tipp wenn ihr Messungen macht am besten alles Energie Messungen direkt hintereinander so bleibt zumindest der unterschied zwischen denn einzeln messung relativ genau.
+Norddeutschland wäre als Ort für Messungen am besten geeignete, das das ewe Netz als stabilste und saubertes in Deutschland gilt wobei wir weltweit gesehen generell sehr weit vorne sind
 
Daher als kleiner Tipp wenn ihr Messungen macht am besten alles Energie Messungen direkt hintereinander so bleibt zumindest der unterschied zwischen denn einzeln messung relativ genau.

Diesbezüglich kann ich dich beruhigen. Das mache ich immer so.

Auch verwende ich für die Messungen immer

- das gleiche Messgerät
- die gleiche Steckdose
- das gleiche Kabel zwischen Messgerät und PC

Obendrein versuche ich, alle Messungen für einen Artikel in dem selben Raumtemperatur-Fenster durchzuführen. Das war in der Hitzeperiode nicht ganz einfach, trotzdem habe ich mich für dieses Review immer zwischen ~23,5 und ~24,5 Grad Zimmertemperatur bewegt.
 
Die Leitungen ? Hoffen wir mal das er nicht versäntlich ne rückleotung erwischt hat bzw ne Leitung die noch wo ander hingeht *buck*
Ohne ihn was unterstellen zu wollennkann leicht passiern
Auf jeden Fall, daher ist das auch definitiv keine Methode die regelmäßig in irgendwelchen Tests zum Einsatz kommen wird.
Wenn man so einen Mod macht, dann muss man selbstverständlich nach den Lötaktionen überprüfen, dass man alles richtig gemacht hat, worauf er auch immer hinweist.
Aber ich denke genau da braucht man sich bei ihm keine Sorgen zu machen, er modded Grafikkarten und Mainboards seit mehr als 10 Jahren.
Generell stimmt ich aber zu das nur Messungen mit Profi Equipment zu vertrauem sind.
Klar ist es nicht zumutbar das privat Persone oder seiten wie P3D sich für 5000euro ein Messgeräte kaufen.
Muss aber dann auch im Hinterkopf behalten das messergäbnise gerne mal ein ganzes Stück daneben liegen, kann mich noch gut an mein Schulzeit erinnern wo wir so ein messergeräte mit versogender Spannung ein Fehler von fast 300% messen konnten ;D
Daher als kleiner Tipp wenn ihr Messungen macht am besten alles Energie Messungen direkt hintereinander so bleibt zumindest der unterschied zwischen denn einzeln messung relativ genau.
Ja, das stimmt schon, aber übertreiben muss man auch nicht.
Hier geht es nicht darum extrem präzise Messungen durchzuführen, sondern nur einen Eindruck zu gewinnen in welchem Rahmen man sich bewegt.
Dafür ist auch ein Fehler von 10-20% absolut in Ordnung.

Mir wäre es auch lieber, wenn er eine vollständige Fehleranalyse und Fehlerangabe gemacht hätte, aber das kann man von Reviewern wohl leider nicht verlangen und wird dementsprechend selten gemacht.
 
Also geht es letztendlich nur um deine persönlichen Abneigungen?
hä?! Wie kommst du nur auf den Unsinn!
Das Dave Jones Beispiel soll nur zeigen, dass auch er mal ins Klo greift und einige Lücken hat.
Bei Messtechnik ist er kompetent, da ab ich keinen Zweifel. Nur bei Kondensatoren hört dann das Wissen auf - ist kein Angriff sondern eine Feststellung. Warum du gleich so angegriffen reagierst, keine Ahnung.

Natürlich ist das Messverfahren nicht perfekt, man könnte beim Messequipment Fehler machen.
...und somit ist die Messung fürs Klo, da schlicht zu ungenau. PUNKT.

Kurz zum Messprinzip, was er hier macht ist folgendes:
1. Prüfen wo und welche Spannungsversorgung am Chip anliegt
2. Die entsprechenden Brücken auslöten und stattdessen Kabel anlöten um die Stromleitungen zugänglich rauszuführen
3. Messung des Stroms der durch die Leitungen fließt mittels Stromzange
Und wenn du dabei kein Problem siehst...
Und genau hier ist doch der Fehler:
Wenn man eh schon am Board rumlötet, warum nicht gleich die wesentlich zuverlässigere direkte Messung mit dem Multimeter? Warum die wesentlich ungenauere und empfindlichere Zange nehmen?!
Das macht mal überhaupt keinen Sinn!
Wenn man eh zwei Drahte anlötet, kann man auch gleich damit direkt über einen Shunt (und sehr kurzen aber dicken Kabeln) messen.

aber wenn wir mal annehmen, dass alles 3.3V ist (was ja den niedrigsten Strom bedeuten würde), dann würden 8W einen Strom von 2.42 A bedeuten und 50mA sind dann etwa 2% Fehler.
1) Die Fehler addieren sich nicht, das ist viel schlimmer
2) 3,3V sind, im besten Fall, die Eingangsspannung. Aber wenn man dort misst, hat man noch die Spannungsregler drin.

Das macht dann bei 80% Effizienz (was Dave Jones auch heute noch als "reasonably high efficiency" bezeichnet, eben weil es nicht sein Fachgebiet ist und "Power Electronics" das Stiefkind ist) und den von dir behaupteten 7,5W nur noch 6W.

Aber das ganze ändert nichts and dem Zustand, dass du 'ne ganze Latte an Elektromagnetischer Strahlung in dem Bereich hast, da bringt dir dann auch das Nullen nix, da Einstrahlungen von außen möglich sind.

Und was ist ein "langer Draht" denn genau??
Richtig, eine Antenne. Direkt neben 'nem 16GHz Sender...

Und genau DAS kann dir die Messung ruinieren. Weswegen es schlicht falsch ist, hier mit Zange zu agieren, da die einfach um ein vielfaches fehleranfälliger sind als die "Drahtmessung"...


aber unterm Strich muss man sagen, dass das schon genau genug ist.
Nein, kann man eben NICHT!
Das behauptest nur du. Aber in der Praxis schaut das anders aus...
Eben weil es 'ne ganze latte an Möglichkeiten gibt, die die Messung beeinflussen. Insbesondere wenn man mit 'ner Antenne und Stromzange arbeitet...

--- Update ---

Generell stimmt ich aber zu das nur Messungen mit Profi Equipment zu vertrauem sind.
Das nicht zwangsläufig, aber das sollte schon das geeignete Equipment sein.
Und eine Stromzange in einer elektrischen Kirmesbude zu verwenden, obwohl man eh schon ein Kabel abgelötet hat, macht einfach keinen Sinn.

Generell nimmt man Zangen nur dann, wenn es gar nicht anders geht und man den Stromkreis nicht unterbrechen kann, man aber unbedingt (ungefähr) wissen muss, wie viel Strom über eine Leitung fließt...

Wenn man jetzt bei einer ungeschirmten Strahlungsquelle mit einem Magnetfeld basiertem Messgerät irgendwelche Ströme messen will, kann da einfach nichts sinnvolles bei rauskommen, da die Messung schlicht von den Signalleitungen in der Nähe beeinflusst wurde.
Insbesondere wenn man mit "meterlangen" Antennen arbeitet...

Muss aber dann auch im Hinterkopf behalten das messergäbnise gerne mal ein ganzes Stück daneben liegen, kann mich noch gut an mein Schulzeit erinnern wo wir so ein messergeräte mit versogender Spannung ein Fehler von fast 300% messen konnten ;D
Ja, zum Beispiel wenn die Batterie in manchen preiswerten Geräten am unteren Ende ist, kommt da oft nur Salat bei raus...

+Norddeutschland wäre als Ort für Messungen am besten geeignete, das das ewe Netz als stabilste und saubertes in Deutschland gilt wobei wir weltweit gesehen generell sehr weit vorne sind
Naja, bei den ganzen Windrädern glaub ich nicht (mehr) dran. Das mag früher, vor 30 Jahren so gewesen sein...

Aber glücklicherweise bin ich in Norddeutschland ;)
 
Ganz ehrlich Stefan: Mach es bitte selbst und mach es richtig und dann vergleichen wir die Ergebnisse.
Ich bin hier mit fertig, kein Bock auf das hin und her.
 
Danke für den tollen Test und die Freizeit die du da hinein investiert hast *greater* Ein Danke auch an AMD für die Bereitstellung *great*
BOINC ja, mehrer Projekte eher nein.

BOINC ist relativ zeitaufwändig, es muss ja schließlich eine Weile für sinnvolle Ergebnisse laufen. Für mehrere Prozessoren kommen da schon eine ganze Menge Stunden zusammen, sodass ich es wohl auf ein Projekt beschränken werde. Und das wird Asteroids@Home sein. Und das aus drei Gründen:

1. Die Workunits sind weder extrem kurz noch extrem lang sondern recht angenehm.
2. Mir ist noch kein CPU-Projekt untergekommen, was die Prozessoren derart auslastet. Selbst Prime sieht dagegen wie Kindergeburtstag aus.
3. Alle WUs werden identisch vergütet. Das nimmt eine Variable bei der Berechnung der Punkte pro Tag aus der Gleichung. Macht es halt etwas einfacher.

Ich lasse aber natürlich mit mir reden. ;) Wenn es andere Projekte gibt, die die drei genannten Punkte (annähernd) erfüllen, so kann ich auch über den Tellerrand hinausblicken... :)
Aufgrund nur geringer Unterschiede in der Laufzeit zwischen SSE3 und AVX WUs bei Asteroids und Ryzen Gen1, würde ich mich über einen Vergleich zwischen den beiden WU Typen freuen. Anleitung wie du diese erzwingst findest du z.B. hier.
Die Änderungen an den AVX Einheiten sollten sich da bemerkbar machen. Allerdings wird auch ein Blick auf den Stromverbrauch bzw. Temperaturen der Spannungswandler interessant werden...

TAL9000
 
Das würde sich aber denke ich lohnen, da hier sehr viele Leute sehr viele Details zu diesem Artikel beigesteuert haben, die sich oft nur in Nebensätzen in Absatz X verstecken, aber so nicht überall zu finden sind :o

Ist sicherlich interessant wenn man sich für alles interessiert, aber letztlich geht es mir darum was man reinsteckt und was hinten rauskommt ;)

Außerdem bin ich nicht so tief in der Materie drin wie ich mal vor langen Jahren war; und ich denke, selbst wenn, würde mir nicht alles was sagen ;D


Auf jeden Fall freue ich mich dass AMD sich nach dem Bulldozer-Disaster wieder darauf konzentriert hat auch etwas für Desktop-Kunden was Gutes abzuliefern anstatt schlechte Server-CPUs zu noch schlechteren Desktop-CPUs zu machen. Über dieses Thema möchte ich jetzt aber nicht diskutieren, dadurch ändert sich meine Erfahrung nicht 8)

Idle-Verbrauch ist für mich wichtig, da ich einige Systeme habe die lange laufen und nur schwach ausgelastet werden. PCIe 4.0 ist für mich überhaupt kein Thema, ich könnte also auch mit Chipsätzen X370 und X470 leben. Da müßte ich allerdings darauf hoffen das nach einer gewissen Zeit im Handel nur Boards mit aktuellen UEFI sind.

Außerdem möchte ich keine Boards mehr mit grottigen Chipsatzlüfter, damit habe ich früher nur schlechte Erfahrungen gemacht, besonders was Lebensdauer und Lautstärke betrifft.


Thanks. Aber das Ergebnis ist irgendwie verwunderlich.
 
Ich bin hier mit fertig, kein Bock auf das hin und her.
Verstehe nicht, waurm du so reagierst...

Hier mal ein Bild von der X570 Modifikation:
Bauer Messung.jpg
Und in einem Bild lötet er 'ne Spule aus und macht da 'nen paar drähte dran...
Das kann dann ggF auch höher sein als was wirklich genutzt wird, da darin z.B. der Ladestrom von den Kondensatoren auch noch dabei ist.

Ein Abwärtswandler schaut z.B. so aus:
https://www.3dcenter.org/artikel/geheimnis-spannungswandler


Aber damit nicht genug. In einem Bild sehe ich einen sehr langen PCIe Extender...

Tschuldigung, aber die Messung ist nicht aussagekräftig!
Und den Messfehler würd ich da nun gar nicht unterschätzen...

--- Update ---

Thanks. Aber das Ergebnis ist irgendwie verwunderlich.
Naja, siehe meine Postings...
Der Messaufbau ist äußerst fehleranfällig...

Allein die langen Kabeln, die Strahlung im Gebiet drum herum, Fehleranfällige Zangen Messung...
 
Rein vom Prinzip her halte ich diese Variante für keine allso schlechte Wahl denn so wäre für mein Verständnis bei Schreibzugriffen auch sicher gestellt das beide Chiplets ihre Daten möglichst Zeitnah abliefern können. Zwar nicht ganz so schnell aber dafür im Zweifelsfall ohne den Schreibzugriff des anderen Chiplets abwarten nu müssen.
Bei einer Singlethread Ausrichtung wäre natürlich die volle Bandbreite vorzuziehen aber bei einer Architektur die auf bis zu 16 bzw. 64 Kerne ausgelegt und somit stark auf die parallelisierte Abarbeitung ausgerichtet ist halte ich diesen Weg für sinnvoller.
 
Teilweise. Beim Auslesen des Idle funktioniert CPU-Z wie es soll, weil es die Kerne nicht auf Hochlast pollt. Was du vielleicht meinst ist der cc6-State, wo die Kerne abgeschaltet werden. Das kann nur der Ryzen Master auslesen.
 
Das steht doch in unserem Review schon seit Anfang an drin

Da ist ein Statement dazu von AMD drin, ich habe es raus genommen da es wohl stört.
 
Da ist ein Statement dazu von AMD drin, ich habe es raus genommen da es wohl stört.

Das war gar nicht meine Intention, ich wollte eigentlich nur wissen, ob ich was da übersehen hatte.
Das ganze soll wohl auch schon in den Review-Guidelines gestanden haben, haben wir aber auch nicht gesehen. *chatt*
 
Ich habe ja mal vor 1, 2 Seiten wegen möglicher Auswirkungen der Schreibschwäche des Speichers bei Fotobearbeitungsprogrammen gefragt. Habe jetzt mal einen Test gefunden, 3D Center sei dank, der auch mal Lightroom und DXO Photolab testet, scheint da wirklich keine Auswirkungen zu haben, sehr gute Ergebnisse http://www.comptoir-hardware.com/ar...70-a-ryzen-7-3700x-ryzen-9-3900x.html?start=9

Auch sonst noch interessant der Test, ein bisschen abseits von dem, was sonst so normalerweise getestet wird :)
 
Ich habe ja mal vor 1, 2 Seiten wegen möglicher Auswirkungen der Schreibschwäche des Speichers bei Fotobearbeitungsprogrammen gefragt. Habe jetzt mal einen Test gefunden, 3D Center sei dank, der auch mal Lightroom und DXO Photolab testet, scheint da wirklich keine Auswirkungen zu haben, sehr gute Ergebnisse http://www.comptoir-hardware.com/ar...70-a-ryzen-7-3700x-ryzen-9-3900x.html?start=9

Auch sonst noch interessant der Test, ein bisschen abseits von dem, was sonst so normalerweise getestet wird :)
Bei Fotobearbeitung ist typischerweise die Grafikkarte in Verwendung, daher ist hier kein soderlich großer Einfluss zu erwarten.

Das hatte ich dir übrigens als Antwort schon geschrieben. ;)
 
Zurück
Oben Unten