Artikel Neuer Artikel: AMD FX "Vishera"

Und genau deshalb ist es wichtig zu wissen welche Programme Priorität haben und wieviele Kerne die entsprechenden Anwendungen wirklich nutzen. :)
Was nützt mir ein i5 bzw. i7 wenn das Programm eh nur 1-2 Kerne nutzt? Rausgeschmissenes Geld...
Gibt es Tests und Analysen dazu? Fehlanzeige....
 
jein..es kommt der Sache zumindest näher. :)

im Bezug auf die Rechenleistung der CPU...gibt auch andere Benchmarks. *g*
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/26/
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/30/ (Test 2)
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/28/

Es ist ebend immer eine Frage des Programms und des Einsatzgebietes.

@Zwen
Wie gesagt hatte ich bisher kein Problem meine Spiele ins GPU Limit zu treiben und wenn beispielsweise Serious Sam 3 mit Eyefinity nach dem Wechsel von der HD6950 auf die HD7970 von 20 auf 30fps zulegt dann ist das ein verdammt hartes GPU Limit. ;)
 
Zuletzt bearbeitet:
Cherry picking statt overall, hmmm? ;-) so gesehen stimmt's schon - wer nur solche workloads hat, der profitiert vom FX und dessen Preis.
 
Das ist natürlich akzeptabel, denn jeder kann kaufen was er möchte. Dann möge derjenige aber bitte nicht auf Biegen und Brechen versuchen das objektiv schlechtere Produkt irgendwie doch besser zu reden ;-)
Was meinst du mit Objektiv? Intel bezahlt die Programmierer und das nicht zu knapp.
Die wollen die 80%+ Marktanteil halten, auf biegen und brechen x86 ins 21. Jahrundert befördern, zu einem Preis da kann keiner wiederstehen. F**k y** !

AMD probiert was neues also bekommen sie auch eine chance bei mir, solange bis die Marktanteile sich bei 50-50 einpendeln, dann kann man auch von objektivität reden.
 
Der Preis bei entsprechender Rechenleistung.

Etwas einseitig ;D

Es gibt auch Anwendungen in dem ein FX-8350 gerade so an einem i3-3220 vorbeikommt, da ist das reine Kauf-PL-Verhältnis auf Seiten Intels, vom Verbrauch wollen wir erst garnicht anfangen 8)

Ist eine Frage der Anwendungen, die man zuhause nutzt. Ich weiß nicht was ihr so treibt, aber ich hab immer noch recht wenig Anwendungen die alle Kerne auslasten; somit ist für mich der Single-Thread schnelle (und sparsame) i5 die bessere Wahl
 
Das kann man aber auch sagen wenn man nur Teillast Benchmarks berücksichtigt, bei denen das Ergebnis ohnehin klar ist. ;)
Wie gesagt geht es bei der Analyse der CPU Auslastung schließlich nicht nur um den FX sondern auch um eine sinnvolle Aufteilung des Budgets bei der Komponentenwahl.
Beispielsweise ist bei diversen Anwendungen ein i3 kaum langsamer als ein gleich schnell getakteter i5 bzw. i7. Noch haarsträubender wird es bei den 6 Kernern wie dem Core i7-3960X, was angesichts des Abschneidens der Billis auch nicht verwunderlich ist.
 
Etwas einseitig ;D

Es gibt auch Anwendungen in dem ein FX-8350 gerade so an einem i3-3220 vorbeikommt, da ist das reine Kauf-PL-Verhältnis auf Seiten Intels, vom Verbrauch wollen wir erst garnicht anfangen 8)

Ist eine Frage der Anwendungen, die man zuhause nutzt. Ich weiß nicht was ihr so treibt, aber ich hab immer noch recht wenig Anwendungen die alle Kerne auslasten; somit ist für mich der Single-Thread schnelle (und sparsame) i5 die bessere Wahl

Und wie hätte dort der FX-4 abgeschnitten? ;)
Ungenutzte Kerne bringen ebend nix, da zählt dann ebend nur noch die Taktfrequenz. Ein klassisches Beispiel sind wohl die iTunes Ergebnisse.
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/23/
 
iTunes war bei einem der ersten Tests eins der am schlimmsten manipulierten Intel compilierten Programme. Ist zwar länger her, aber mans sollte es in Betrachtung ziehen.
 
Das dürfte aber auch erst beim Vergleich zwischen den Herstellern relevant sein.
Innerhalb der hersteller eigenen Produkt Palette zählt letztendlich nur die Kernzahl und die Taktfrequenz relevant sein. Schaut man sich die Ergebnisse mal genauer an, vergleicht den Core i3-3220 mit dem Core i7-3770K und berücksichtigt das der Turbo letzteren bei Teillast auf bis zu 3,9 GHz hochjagt dann wird einem recht schnell klar das nicht mehr als 1-2 Kerne genutzt werden können. die 15% Mehrleistung des i7 schommen schlicht vom Taktunterschied durch den Turbo. Untermauert wird dies von den Werten des kaum langsameren Core i5-3570K, welchen der Turbo "nur" auf 3,8GHz hochdreht.

Wie gesagt...mir fehlen solch detailierte Betrachtungen der Soft- und Hardware.
 
Zuletzt bearbeitet:
Verwendet man, wo du Recht hast einen "neutralen" compiler, wieviel gain bekommt wohl AMD, was hat Intel als performance loss zu verzeichnen.
Kommt drauf an welche Befehlssätze man verwendet. Da gibts die große Unterschiede v.a. dann, wenn die SSE2-Version von SSE3/SSSE3/SSE4.1 Code entsprechend "unhandlich" bzw. einfach nur komplexer ist. Wenn ich mich recht erinnere, dann nützt itunes SSE4.1 stand mal irgendwo, das wird dann auf nem BD wahrscheinlich nicht genutzt. Aber ist eh wurst, ging hier ja um die Threads.
 
Und was macht AMD sympathischer :) ?

Das habe ich spätestens seitdem AMD nicht für Desktop-Ansprüche entwickelt hinter mir
Das sie nicht so korrupt wie Intel sind.
Wenn das Volk solche Sachen wie Intel unterstützt, muss man sich hinterher nicht Fragen warum die Situation im Moment so ist wie sie ist.
Man muss ein bisschen weiter denken als nur bis zur Nasenspitze.
Aber ich will das Ganze nicht nochmals erläutern und hoffe das dies in diesem Forum jeder selbst kann.
Es gilt wie bei jedem Produkt, man muss alles immer etwas tiefgründiger hinterfragen und nicht nur die Fassade anschauen und aufs eigene Ego schauen.

Mir persönlich ist es eigentlich egal wenn es AMD nicht mehr gibt, fände dies natürlich sehr schade und darum unterstütze ich sie auch, solange sie brauchbare Produkte liefern.
Aber Leute die dasselbe sagen und dann trotzdem Intel unterstützen, kann ich nicht nachvollziehen, denn genau das sind dann die Leute die dann über die hohen Preise reklamieren sobald es AMD nicht mehr geben sollte.
 
99 Prozent der Menschen, die einen Intel-Chip in ihrem PC oder Notebook haben, wissen es vermutlich nicht mal ... und nein, falls es AMD nicht geben sollte, wird ein Celeron keine 300 Euro kosten. Intel muss wirtschaftlich bleiben.
 
Dann knüpfen se ebend an alte Zeiten an und verkaufen die Celerons für 100-150€ und schrauben den Produktintervall wieder auf 2 Jahre rauf.
Macht die Sache auc nicht besser....

@Opteron
Wobei eine solche Intel Optimierung bei Apple auch nicht weiter verwunderlich wäre, denn schließlich haben sie keine anderen CPUs im Programm.
 
OT: Hm Apple und Intel? Scheint nicht gut auszusehen: http://orf.at/stories/2149652/

Da bekommen AMDs ARM-Ambitionen gleich wieder eine andere Perspektive.

lg
__tom
 
Naja, da darf man nicht vergessen, dass auch nvidia bei ARM mitmischt, die haben da ja ihren eigenen Fusion-Chip ;-)
@sompe:
Ja, aber itunes gibts auch für Windows;-)
 
Da bekommen AMDs ARM-Ambitionen gleich wieder eine andere Perspektive.

Das würde wo anders eher passen als hier, aber ich sehe da eher keine Perspektive weil Apple das wie jetzt schon wohl selber machen wird.
 
Das würde wo anders eher passen als hier, aber ich sehe da eher keine Perspektive weil Apple das wie jetzt schon wohl selber machen wird.

Naja, Apples ARM-Chef-Desinger ist ja zu AMD gewechselt .. da könnte man schon was spekulieren ^^
Oder halt auch nicht ^^
 
Dann knüpfen se ebend an alte Zeiten an und verkaufen die Celerons für 100-150€ und schrauben den Produktintervall wieder auf 2 Jahre rauf.
Wann haben reguläre Celerons für Desktop 150 Euro gekostet? Ich kann mich da nur gaaanz vage an Coppermine-Modelle erinnern und das ist mehr als ein Jahrzehnt her, allerdings waren damals CPUs generell deutlich teurer. Also?
 
@tomturbo
Ja davon hatte ich vorhin bei ntv auch was gesehen gehabt.

@Opteron
Ich denke das derzeit die Rechenleistung der ARM Chips dagegen spricht aber dort ist die derzeitige Steigerung der Rechenleistung ja recht ordentlich. Mittel bis längerfristig könnten sie durchaus als Alternative erscheinen.

Das es itunes auch für Windows gibt ist mir durchaus bewußt, schließlich verwalte ich damit seit Jahren meine Musiksammlung...daher auch meine Erfahrung mit der Einlesezeit der CDs. ;)

Der Kanckpunkt war für mich eher das sie bei den Macs nur Intel Prozessoren verwenden und eine standardmäßige Optimierung der Software auf diese Architektur hin durchaus plausibel erscheint.
Wer weiß was raus kommen würde wenn sie AMD Chips verwenden würden... ;D
 
Cherry picking statt overall, hmmm? ;-) so gesehen stimmt's schon - wer nur solche workloads hat, der profitiert vom FX und dessen Preis.
Das sind aber nur Fälle, wo der FX Aufgrund des höheren Taktes knapp vorne liegt (also ~10% Vorsprung, bei ~15% Mehrtakt). Eine echte Fx-Killeranwendung fehlt hier.
 
Zurück
Oben Unten