Artikel Neuer Artikel: AMD FX "Vishera"

Dann kennst Du nicht viele iT-Leiter Zwen ;)

Stromkosten sind geradezu lächerlich gering gegenüber Personalkosten, Lizenzkosten oder Wartungskosten.
Deshalb interessiert es auch nur sehr wenige bei dem 5% Anteil zu sparen anstatt beim 95% Anteil.

Deswegen finde ich die Stromverbrauchsdiskussion, ebenso wie bei der Sparlampe, als verlogen und vorgeschoben.
Wenn man nichts mehr findet kommt man mit dem Stromverbrauch. Sehr schwach.


lg
__tom
 
12 threads pci-e 3.0 usw?
Zu welchem Preis bitte?
HT ist nicht Gleichzeitigkeit und 12 Cores gibt es von Intel nicht.
Ist ja lächerlich einen 2000-3000 Euro teuren Prozessor mit einem FX zu vergleichen.

16 Core Opterons kosten aktuell ca. 1100 Euro mit ähnlicher TDP.

lg
__tom
 
Zwen,

Du vergleichst eine Server CPU (Xeon) mit einer Desktop CPU (FX) ???

Der Vergleich aus dem Heise-Forum bezieht sich auf den i7-3770K, weil ungefähr gleiche Leistung (zumindest unter Linux).

httx://wwx.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=10

BTW, 0,25€/kWh ist ab 2013 der Durchschnittspreis, wegen der EE-Umlage.
[OT]Diese zahlt natürlich nur der Otto-Normal-Verbraucher. Unternehmer und andere Mafiosi sind durch "Mutti" von der Umlage, wie immer, befreit worden.[/OT]
 
Zum Thema Stromkosten vs. Heizkosten.....was ist aktuell teurer?
.
EDIT :
.

Es kommt drauf an ob es ein Amd oder Intel ist.
Verbraucht ein Intel mehr.
Ein Intel ist ein Stromfresser ohne gleichen.

Verbraucht ein Amd mehr.
Ach, das ist doch "nur " unter Last, das macht im Betrieb doch garnix aus.

Wenn ich mich recht erinnere hatte Intel lediglich zu P4 Zeiten mehr gefressen.....wieviele hatte es seinerzeit ernsthaft interessiert und wieviele proben heute bei AMD den Aufstand?

Der K5 war im Vergleich zu den Rivalen von Intel nicht sonderlich sparsam.
Die K6 Varianten waren ins besondere bei Spielen durch die langsame FPU idR langsamer als die Pentiums.
Der P3 war in der vergleichbaren Leistungsklasse sparsamer als der Athlon.

Mit dem P4 hatte man einfach nur eine Schlechte Serie (Effizienzgurke) am Markt aber konnte selbst damit seine Marktanteile weitestgehend halten.
 
Zum Thema Stromkosten vs. Heizkosten.....was ist aktuell teurer?
.
EDIT :
.



Wenn ich mich recht erinnere hatte Intel lediglich zu P4 Zeiten mehr gefressen.....wieviele hatte es seinerzeit ernsthaft interessiert und wieviele proben heute bei AMD den Aufstand?

Der K5 war im Vergleich zu den Rivalen von Intel nicht sonderlich sparsam.
Die K6 Varianten waren ins besondere bei Spielen durch die langsame FPU idR langsamer als die Pentiums.
Der P3 war in der vergleichbaren Leistungsklasse sparsamer als der Athlon.

Mit dem P4 hatte man einfach nur eine Schlechte Serie (Effizienzgurke) am Markt aber konnte selbst damit seine Marktanteile weitestgehend halten.
Oh, beim Presskopf wurde Massiv drauf rumgehackt, selbst bei den höheren Northwoods.
Da wurde immer sehr laut geschrien das der mehr Verbraucht als angegeben, und Amd im Normalfall sogar darunter bleibt, sprich das was Intel als TDP ansah wäre bei AMD die ACP ( hm ACP war doch der durchschnittliche Verbrauch den AMD dann später angab?).
Da hatte keiner Argumentiert, ach, das ist doch nur unter Last, aber ein Pc ist doch meist im Idle, da fällt es doch nicht so auf.
Nur jetzt wo AMD die Effizenzkrücke ist, da ist plötzlich alles ganz anders als zu P4 Zeiten.
Mich stört es mit den zweierlei Maß.
Zugegeben, ich drifte leicht ins Negative, und bin auch recht Kritisch, aber von schönreden halte ich halt garnix.
Das Konzept vom Bullie ist ja ansich gut,im Server Bereich, im Desktop ist er zumeist etwas fehl am Platz.
Es müssen zuviele nutzlose Münder gefüllt werden und durch den nicht ganz so aktuellen Fertigungsprozess hat man noch ein zusätzliches Problem.
Das muss Amd doch eigentlich von Anfang an Bewusst gewesen sein, wieso verbesserte man nicht den Thuban für Desktop und lies den Bullie dort wo er hingehörte.
Immerhin gabs ja auch neue Sockel.
 
Ist eben ein AMD-Forum ;)

Ich hab mich früher auch weniger um den Stromverbrauch gekümmert, aber mittlerweile hat das bei mir schon einen bestimmten Stellenwert.

Das als "nichts" abzutun ist mir deshalb befremdlich, hier gehts doch nicht um 10W mehr unter Vollast, sondern das liegt im Bereich des Doppelten. Ein System mit einem FX-6300 liegt bei 138W, ein i3-3220 bei 57W; und das sind insgesamt von der Leistung gleichwertige CPUs. Mein 3470 ist zwar teurer, aber der reine CPU braucht nicht die Hälfte eines FX-6300, ist aber deutlich schneller.

Ich glaub euch ja das ihr treue AMD-Käufer seid, aber bitte mal bei Fakten bleiben. Der Verbrauch der FX ist der Leistung nicht angemessen. Das Preis-Leistungsargument das man in der Vergangenheit AMD angerechnet hat ist somit nicht mehr gegeben

AMD muß da reinhauen, denn wenn wir keine AMD kaufen, wer dann? Die Mediamarkt-Kunden? Die wissen nicht mal das es AMD gibt.
 
Oh, beim Presskopf wurde Massiv drauf rumgehackt, selbst bei den höheren Northwoods.
Da wurde immer sehr laut geschrien das der mehr Verbraucht als angegeben, und Amd im Normalfall sogar darunter bleibt, sprich das was Intel als TDP ansah wäre bei AMD die ACP ( hm ACP war doch der durchschnittliche Verbrauch den AMD dann später angab?).
Da hatte keiner Argumentiert, ach, das ist doch nur unter Last, aber ein Pc ist doch meist im Idle, da fällt es doch nicht so auf.
Nur jetzt wo AMD die Effizenzkrücke ist, da ist plötzlich alles ganz anders als zu P4 Zeiten.
Mich stört es mit den zweierlei Maß.
Zugegeben, ich drifte leicht ins Negative, und bin auch recht Kritisch, aber von schönreden halte ich halt garnix.
Das Konzept vom Bullie ist ja ansich gut,im Server Bereich, im Desktop ist er zumeist etwas fehl am Platz.
Es müssen zuviele nutzlose Münder gefüllt werden und durch den nicht ganz so aktuellen Fertigungsprozess hat man noch ein zusätzliches Problem.
Das muss Amd doch eigentlich von Anfang an Bewusst gewesen sein, wieso verbesserte man nicht den Thuban für Desktop und lies den Bullie dort wo er hingehörte.
Immerhin gabs ja auch neue Sockel.
Siehe oben....Presskopf und Co. sind halt ein Kind der P4 Reihe, welche aus Sicht der Effizienz ein Griff ins Klo war. Ein grosses Problem des Presskopf war weiterhin die Verlaengerung der Pipeline zur Steigerung der Taktfrequenz und die einher gehende Verschlechterung der IPC bei den damaligen Anwendungen....trotz Verdoppelung des L2 Cache. Hatte der Spass letztendlich nicht auch noch die moegliche Ersparnis durch eine einhergehende Strukturverkleinerung aufgefressen? Ist leider schon etwas lange her...
Letztendlich hatte es allerdings nur einen recht geringen Einfluss auf die Verkaufszahlen hatte. Wie wichtig kann den Kunden der Verbrauch dann also gewesen sein?
Die ACP Angabe hat AMD meines wissens nach lediglich bei den Opterons.

Aber wenn wir schon beim Punkt "zweierlei Maß" sind.....wie waren nochmal die meisten Reaktionen auf diverse Bugs? Bei den B2 Phenoms gab es einen riesigen Aufschrei wegen dem spaet entdeckten Bug und der nachgereichte TLB Fix drueckte die Leistung nochmal masiv. Ist der Bug bei irgendeinem abseits von dicken multi CPU Maschinen mal aufgetreten?
Wie war nochmal die Reaktion auf schwerwiegende Bugs bei Intel? (z.B. 8MB Bug bei SSDs, B2 SATA 6 Bug)
Wenn ich mich recht erinnere relativ verhalten bis absurd.
Warum beschweren sich viele ueber eine nahezu stehen gebliebene Chipsatz Entwicklung bei AMD wenn die Chipsaetze der Konkurrenz zum Teil schlechter ausgestattet sind/waren und ignoriert hierbei z.B. gern die Chipsaetze der FM1 Plattform?
Warum verliert man sich bei der der pro Intel Argumentation in Foren so gern in technischen Details, "vergisst" aber gern den Preis der letztendlichen Produkte? *noahnung*
Kommt es mir nur so vor oder ist jedes mal vor allem das zeitgemäß wo Intel die Nase vorn hat? Egal ob es AMD bereits vorher hatte.

Ich beschäftige mich schon recht lange mit den vor und Nachteilen der beiden Konkurrenten und hatte seinerzeit auch Ausflüge wie den Cyrix 6x86er mit dabei.
 
Der Northwood war alles, nur nicht Uneffizient.
Der war auf einer Augenhöhe mit dem XP gewesen, Leistung/Stromverbrauch waren sehr Vergleichbar.
Beim Prescott waren wohl zuviel Leckströme das Problem, man hatte die 90Nm nicht im Griff gehabt, als es dann aber mit den DC losging ging er den Bach runter weil die P4 einfach FSB Hungrig waren, und als man dann zwei Kerne zu versorgen hatte, hatte man dann einen Willamette mit SDR Ram, aber in zwei Kernen.
Naja, der TLB beim PH1 war schon ein Problem, zumindest der Fix, der hatte reichlich Leistung gekostet, das mag dann wohl keiner haben wollen.
Hey, auf Via wird immer noch wegen dem Sata2 Bug, auch wenn der Chipsatz deutlich vor Sata2 rauskam rumgehackt, davon abgesehen wenn der Plattenhersteller einen S-Ata1 Modus, am besten halt über Jumper, realisiert hatte, gabs auch kein Problem und wirklich langsamer wars auch nicht weil die Platten noch zu lam waren.
Oder mit der Bug mit den CL Soundkarten, kam auch nur vor unter bestimmten Voraussetzungen, wurde aber als immer und Ewig hingestellt.
Ja, Amd und Intel haben zu häufig zuviele Bugs, und es wird nicht immer mit Vernunft drann gegangen bei Diskussionen.
Mir Persönlich kommt es aber so vor, als würde man den Stromverbrauch der Bullies schönreden zu wollen, wenn nicht sogar zu müssen.
Naja, Amd ist Leistungsmäßig nicht auf der Höhe, man kann dann halt nur über den Preis verkaufen, ist bei Autos auch nicht anders, 10 Ps mehr kosten dann auch schon mal einen Tausender mehr.
Mich würde es auch freuen wenn Amd und Intel auf Augenhöhe befinden würden, aber das kann halt nicht gehen wenn man CPU baut die im Desktop Umfeld nicht ihre Leistung bringen können.
Wie ich schon gesagt hatte, das ging beim PH2 noch gut, weil die Cpu auch sonst gute Leistung im Desktop brachten, das klappt aber nicht beim Bullie.
Amd stellt sich mit den Cpu selbst ein Bein.
Rießige Menge an mm², vor allem beim Trini, dementsprechende Herstellungskosten und Stromverbrauch, und zum guten Schluß hapert es mit der Cpu Leistung, zumindest im Vergleich zu Intel, so das man auch beim Preis recht Tief gehen muss.

Und das nur, weil man im Management von AMD nicht nachgedacht hatte.

Stattdessen sagt man dann halt lieber, ach naja, wir machen mehr auf Server ( und wer soll die Cpu dann plötzlich kaufen wollen?) und Cpu die auch kein Geld Amd(Arm)einbringen.

Intel braucht keine Anti AMD Aktionen zu machen, AMD macht sich selber Kaputt.

Ich würde zwar nicht heulen um Amd, aber finde es schon sehr Schade wie Amd sich selbst Abgewirtschaftet hat.
 
Dann kennst Du nicht viele iT-Leiter Zwen ;)

Stromkosten sind geradezu lächerlich gering gegenüber Personalkosten, Lizenzkosten oder Wartungskosten.
Deshalb interessiert es auch nur sehr wenige bei dem 5% Anteil zu sparen anstatt beim 95% Anteil.

Deswegen finde ich die Stromverbrauchsdiskussion, ebenso wie bei der Sparlampe, als verlogen und vorgeschoben.
Wenn man nichts mehr findet kommt man mit dem Stromverbrauch. Sehr schwach.


lg
__tom
ok, aber wer hat in besseren zeiten denn den stromverbrauch quasi als ein k.o. kriterium ins feld geführt a'la "save the planet, save your money" usw.? war das nicht amd, die damals mächtig für das thema leistungsaufnahme getrommelt haben? also wenn amd das damals als richtig und wichtig erkannt und entsprechend vermarktet hat, dann hat das heute auf einmal keine gültigkeit mehr? und wenn es heute verlogen ist, wie verlogen war es denn damals?

ich kann mich noch gut an die lustigen diskussionen in verschiedenen foren erinnern. tolle energie-effiziente amd-cpu's verwenden und intels p4 herdplatte lächerlich machen, gleichzeitig aber die tolle amd-cpu auf nem nforce stromschlucker-board benutzen. in der tat, da war und ist vieles verlogen. :]

Letztendlich hatte es allerdings nur einen recht geringen Einfluss auf die Verkaufszahlen hatte. Wie wichtig kann den Kunden der Verbrauch dann also gewesen sein?
naja, beim stromverbrauch betrachtest du sinnvollerweise die gesamte plattform. was hilft dir eine stromsparende cpu, wenn du auf der anderen seite die ersparnis über das mainboard (oder andere komponenten) wieder raushaust. ich bin damals irgendwann zu intel gewechselt, weil ich mich für die damals bessere plattform (stabil, weniger fehleranfällig) entschieden hatte. ich hatte einfach keinen bock mehr auf die damaligen gurkenchipsätze (insbesondere nvidia). und die absoluten unterschiede bei der leistungsaufnahme waren damals bei weitem nicht so dramatisch wie heute (vor allem eben bezogen auf die gesamte plattform).

Wie war nochmal die Reaktion auf schwerwiegende Bugs bei Intel? (z.B. 8MB Bug bei SSDs, B2 SATA 6 Bug)
beim sata-bug gabs glaube ich eine der teuersten it-rückruf-aktionen. und darüber hat wirklich fast jede newsseite berichtet, nicht nur welche mit explizitem it-bezug. darüber wurde sogar im fernsehen berichtet. an eine derart umfassende berichterstattung kann ich mich hingegen bei amd's tlb-problem nicht erinnern.
 
@Cruger
Wenn du vom Gesamtsystem ausgehst, dann schluck die GPU immer noch am meisten.
Aber sie Leistet dann ja auch entsprechend etwas.
Im Desktopbereich ist idle nun mal der häufigste zustand, da haben sie sich auch verbessert im Vergleich zum Vorgänger und sind gleich auf mit Intel.
So gesehen haben sie an der richtigen Stelle angefangen, bei der CPU sollte es nun weiter gehen und zwar nach unten bei gleicher Leistung.
 
@Cruger,

was sind das bitte für Kindergartenargumente, weil die einen das einmal gemacht haben, darf ich das jetzt auch tun dürfen? Niveau sieht anders aus.

Was früher in den Foren los war ist mir ehrlich gesagt vollkommen sch... egal. Gestern war Gestern und ist nicht heute..
Ebenso bin ich nicht AMD als dass ich Rechtfertigungen bringen soll für Werbung von damals? Hä?

Wie Du mir so ich Dir? Auge um Auge?
Oder was soll das jetzt alles.

Die wahren Fanboys sind offenbar die blauen kann ich nur sagen.
Es wird alles auf einen einzigen Punkt hin fokusiert als ob es nichts anderes geben würde. *lächerlich*
Nachtragend weil es einmal einen Fleck auf der weißen Weste gab.

Aber wenn ihr meint bitte gerne. Wenn andere Bretter vorm Kopf haben solls mich nicht stören.


lg
__tom
 
Dann kennst Du nicht viele iT-Leiter Zwen ;)
Das empfinde ich, als eine recht freche, unterstellende Falschaussage. Man hätte fragen könnnen, nicht aussagen müssen.
(Aus meiner Sicht, mal wieder ein gezielter Versuche meine Person mit einer unterstellenden, falschen Behauptung klein zu halten.)

Das kannst du versuchen, steht die aber nicht zu. - Weil (und das ist keine Flaschaussage) DU - MICH nicht kennst.
Ziehst du deine Schlussfolgerung aus dem von mir geschrieben Beitrag, bist du am Thema vorbei. Ich sprach von:
Das ist richtig, aber Verbrauch (Umwandlung) zur Leistung hat einen hohen Stellenwert und wird in einem bestimmten Bereich sehr kritisch begutachtet...
Was heißt hier, wenn man nichts mehr finden? So wie es auch hier scheint, vergisst du wichtige Bestandteile oder ignoriert sie gezielt.
Ich habe bereits vor Woche gesagt, dass für mich das einzig negative die Leistungsaufnahme zur Leistung unter Last ist. (Prozessor vs Prozessor).

Desweiteren habe ich auch nicht geschrieben, dass Stromkosten das Hauptkriterium wären, ich kann deinen Beitrag daher leider nicht einordnen.
Parallel dazu kritisieren ich primär die Stromumwandlung und nicht nur und ausschließlich die Leistung.
Zwen,
Du vergleichst eine Server CPU (Xeon) mit einer Desktop CPU (FX) ???
*lol* - Falls nichts konstruktives mehr kommt, beende ich diese Diskussion, hier – mit dir.

@WindHund

Ist eine aus meiner Sicht, eine zu pauschale Aussage als das sie realistisch wäre.
Eine HD 7750 wandelt im Idle circa 5W* und maximal im peak 45W* Energie um, eine leistungsstarke HD 7870 nimmt sich im Idle unter 20W* und im Load nicht über 120W*.
(Unter den richtigen Voraussetzungen*)

Desweiteren würde mich mal interessieren, was du unter Idle verstehst?
Primitive, einfach Aufgaben, beziehungsweise geringer workload wie Serven, Multimedia, sind kein Idle.

Oft haben Mainstream-Rechner auch ein Windowsbetriebssystem in Standard-Konfiguration und Hintergrund-Software wie Virenscanner etc.
Für mich, ist ein Rechner im Idle (Leerlauf), wenn keine Last anfällt oder verteilt wird und HW + SW generell ungenutzt ist.
Und wiederholt (es ist eben notwendig), wenn Person A ausschließlich wenig Leistung benötigt, ist er mit 4/4 C/M falsch bzw. gar nicht beraten.
Die wahren Fanboys sind offenbar die blauen kann ich nur sagen.
Es wird alles auf einen einzigen Punkt hin fokusiert als ob es nichts anderes geben würde. *lächerlich*
Das ist aus meiner Sicht, eine anstößige und freche Falschaussage, die eventuell bewusst getroffen wurde?
Du liest einfach nicht richtig, es geht nicht allein um die hohe Stromaufnahme, sondern um das Verhältnis Stromaufnahme/Leistung zur Konkurrenz.
(Unter Berücksichtigung der Anschaffungskosten, des jeweiligen Anwendungsbereichs und der anfallenden Betriebszeit, einschließlich der verwendeten Software.)

Und ich bitte auch dich, Anspielungen zu unterlassen... Brett vorm Kopf etc.
Es ist nicht so, als dass man sich etwas ausdenken würde, es sind Fakten, auch aus persönlichen Erfahrungen heraus, die bestätigen:

Wenn, wie aufgezeigt System A mehr Kosten verursacht als System B und dabei noch langsamer rechnet (im Profil), spricht (technisch) nichts mehr für System A.
Und es ist vollkommen gleichgültig (mir) ob System A nun einen Intel oder AMD Prozessor hat, das möchtest du aber nicht verstehen, es geht um den Fakt.
 
Zuletzt bearbeitet:
Wenn du vom Gesamtsystem ausgehst, dann schluck die GPU immer noch am meisten.
Das kommt auf die CPU und die Grafikkarte an. Ein FX-8350 samt Board etwa schluckt bald 50W mehr als eine Geforce GTX 670, d.h. der FX für sich frisst wohl so viel wie die GTX.
 
Die wahren Fanboys sind offenbar die blauen kann ich nur sagen.
ich verstehe zwar den aggressiven ton nicht ganz, aber wie schön, dass du dir die welt schwarz/weiß malst. ich persönlich war schon zu zeiten des p4, als man für die herdplatte an einigen stellen ausgelacht wurde, der meinung, dass stromverbrauch ein immer wichtiger werdendes, aber mit sicherheit nicht das einzig seligmachende kriterium ist. und in hinblick auf multicore-systeme und immer stärker diversifizierende einsatzzwecke ist die betrachtung und bewertung der leistungsaufnahme heute sehr viel schwieriger als früher. das hab selbst ich als laie kapiert.

der andere punkt war auch nicht an dich gerichtet, als dass du dich für amd rechtfertigen müsstest. amd hat als unternehmen, dass sich in sachen marketing selten mit ruhm bekleckert hat, die leistungsaufnahme meiner meinung nach völlig zu recht mehr in den fokus gerückt. und an der stelle muss ein unternehmen eben damit leben, dass in dem moment, wo das pendel in die andere richtung ausschlägt, die fachpresse auf diesen punkt besonders kritisch draufschaut.

aber man sieht das ja überall im forum. bist du nicht für amd, dann bist du automatisch ein blauer. :]
 
Das kommt auf die CPU und die Grafikkarte an. Ein FX-8350 samt Board etwa schluckt bald 50W mehr als eine Geforce GTX 670, d.h. der FX für sich frisst wohl so viel wie die GTX.
Jo unter CPU-Vollast.
Nur welches Spiel verursacht CPU-Vollast auf allen 8 Threads? Das kann man an keiner Hand abzählen ;-)
 
@Zwen
Die HD7870 ist nicht in meiner Leistungsklasse, das ist Mainstream! ;)
Als idle würde ich z.B. Muski hören, Virenscanner und lesen einstufen.

@y33H@
Aber nur wenn das Programm den FX auch voll auslastet, bei Spiele ist das gewiss nicht der Fall.
Da braucht die GTX670 dann schon mehr, vor allem mit einem FX-8350. ;)
 
Klar, selbst in BF3 erreichst du nicht die Werte wie in x264 oder Cinebench. War ja nur als Randnotiz eingeworfen ;-)
 
16 Core Opterons kosten aktuell ca. 1100 Euro mit ähnlicher TDP.
8M/16T und das gibt es für ähnliches Geld auch einen Xeon E5 mit 8C/16T.
In einem Server der mit 25k Euro zu Buche schlägt, sind +/- 200Euro für eine CPU, wenn auch vielleicht mal 2 oder 4 weniger relevant, als Beispiel.
Und das eine "AMD-Bestückung" von Hersteller/Distributor X deutlich preiswerter sein muss als Produkt B mit Intel, ist ein Märchen, nur zur Information.
 
Zuletzt bearbeitet:
ich verstehe zwar den aggressiven ton nicht ganz, aber wie schön, dass du dir die welt schwarz/weiß malst. ich persönlich war schon zu zeiten des p4, als man für die herdplatte an einigen stellen ausgelacht wurde, der meinung, dass stromverbrauch ein immer wichtiger werdendes, aber mit sicherheit nicht das einzig seligmachende kriterium ist. und in hinblick auf multicore-systeme und immer stärker diversifizierende einsatzzwecke ist die betrachtung und bewertung der leistungsaufnahme heute sehr viel schwieriger als früher. das hab selbst ich als laie kapiert.
Sorry cruger, dass ich Dich getroffen habe, aber nach gefühlten 25000 permanenten gleichen Aussagen die nur eine Seite der Medaille betrachten ging mir die Hutschnur hoch.
Es war von mir nicht persönlich gemeint. Sorry nochmals.

Den Stromverbrauch muss man allerdings wirklich relativieren, meiner Meinung nach.
( "Zumindest jeder der sich mit Auto oder Flugzeug fortbewegt und nicht schleunigst in die Höhle zieht." )
Wir reden da wie gesagt vom 5% Anteil und nicht vom 95% Anteil.
Das kann man nicht oft genug betonen.
Deswegen finde ich solche Diskussionen wahrlich entbehrlich denn sie zeigen nicht den Fokus auf die 95%.


lg
__tom
 
@tomturbo
Ich widerspreche der Aussagen, dass von 100% lediglich 5% (Leistung zu Umwandelung) über Produkt A zu Produkt B entscheiden.
Mann muss nicht, man kann relativieren und sollte das unter bestimmten Voraussetzten auch tun, dass bestreitet auch keiner.

Da wo viel Energie aufgenommen wird, wird in der Regel auch viel Energie umgewandelt, zum Beispiel in Wärme.
Und das ist in bestimmten Bereichen ebenfalls ein wichtiger Punkt, der die Endkosten (Kühlsystem-Auslegung) beeinflussbar macht.

Und: Wenn man ein vorhandenen Kritikpunkt 25k-mal kleinreden möchte, muss man sich nicht wundern, wenn es 25k Gegendarstellungen gibt.
Interpretiere ich es richtig, dass ich bei dir jetzt auf Ignore stehe, nur weil ich unangenehme Fragen stelle und deine "Art und Weise" der Gesprächsführung nicht hingenommen habe?

Und natürlich, ist es beispielsweise sinnfrei, mit einer Schiffswerft über den Strombedarf, der dazu noch überschaubaren IT-Infrastruktur zu sprechen.
Es gibt aber auch Unternehmen, die stark darauf (auf das Thema) fokussiert sind, den Energiebedarf der benötigten Rechenleistung möglich gering zu halten.
Ebenfalls gibt es (weil es auch nicht nur schwarz und weiß gibt) noch Kunde die dazwischen agieren. Fakt ist, dass Thema ist beständig und stagniert nicht.
 
Zuletzt bearbeitet:
Der Northwood war alles, nur nicht Uneffizient.
Der war auf einer Augenhöhe mit dem XP gewesen, Leistung/Stromverbrauch waren sehr Vergleichbar.
Beim Prescott waren wohl zuviel Leckströme das Problem, man hatte die 90Nm nicht im Griff gehabt, als es dann aber mit den DC losging ging er den Bach runter weil die P4 einfach FSB Hungrig waren, und als man dann zwei Kerne zu versorgen hatte, hatte man dann einen Willamette mit SDR Ram, aber in zwei Kernen.
Naja, der TLB beim PH1 war schon ein Problem, zumindest der Fix, der hatte reichlich Leistung gekostet, das mag dann wohl keiner haben wollen.
Hey, auf Via wird immer noch wegen dem Sata2 Bug, auch wenn der Chipsatz deutlich vor Sata2 rauskam rumgehackt, davon abgesehen wenn der Plattenhersteller einen S-Ata1 Modus, am besten halt über Jumper, realisiert hatte, gabs auch kein Problem und wirklich langsamer wars auch nicht weil die Platten noch zu lam waren.
Oder mit der Bug mit den CL Soundkarten, kam auch nur vor unter bestimmten Voraussetzungen, wurde aber als immer und Ewig hingestellt.
Ja, Amd und Intel haben zu häufig zuviele Bugs, und es wird nicht immer mit Vernunft drann gegangen bei Diskussionen.
Mir Persönlich kommt es aber so vor, als würde man den Stromverbrauch der Bullies schönreden zu wollen, wenn nicht sogar zu müssen.
Naja, Amd ist Leistungsmäßig nicht auf der Höhe, man kann dann halt nur über den Preis verkaufen, ist bei Autos auch nicht anders, 10 Ps mehr kosten dann auch schon mal einen Tausender mehr.
Mich würde es auch freuen wenn Amd und Intel auf Augenhöhe befinden würden, aber das kann halt nicht gehen wenn man CPU baut die im Desktop Umfeld nicht ihre Leistung bringen können.
Wie ich schon gesagt hatte, das ging beim PH2 noch gut, weil die Cpu auch sonst gute Leistung im Desktop brachten, das klappt aber nicht beim Bullie.
Amd stellt sich mit den Cpu selbst ein Bein.
Rießige Menge an mm², vor allem beim Trini, dementsprechende Herstellungskosten und Stromverbrauch, und zum guten Schluß hapert es mit der Cpu Leistung, zumindest im Vergleich zu Intel, so das man auch beim Preis recht Tief gehen muss.

Und das nur, weil man im Management von AMD nicht nachgedacht hatte.

Stattdessen sagt man dann halt lieber, ach naja, wir machen mehr auf Server ( und wer soll die Cpu dann plötzlich kaufen wollen?) und Cpu die auch kein Geld Amd(Arm)einbringen.

Intel braucht keine Anti AMD Aktionen zu machen, AMD macht sich selber Kaputt.

Ich würde zwar nicht heulen um Amd, aber finde es schon sehr Schade wie Amd sich selbst Abgewirtschaftet hat.
Der Northwood kam bereits in 130nm raus, was der XP erst ca. ein halbes Jahr später mit dem Thoroughbred A bekam. Sollte er also im 130nm Verfahren lediglich mit den 180nm Modellen der Konkurrenz mithalten können dann ist das nicht gerade ein Zeichen von Effizienz. So nebenbei...ich hatte einen Northwood (Desktop P4 mit 2533MHz) in meinem alten Schleppi.
Nicht umsonst fragte ich auch ob jemand mal in Berührung mit dem TLB Bug gekommen war, denn mein alter Phenom 9500 lief bewußt ohne Fix bis er vom Phenom II 940 abgelöst wurde und ich konnte keine ungewöhnlichen Abstürze feststellen. War es letztendlich vor allem im Desktop Bereich viel Lärm um "nichts"?
Das bei solch komplexen Objekte Bugs besitzen ist nichts neues und praktisch normal aber das man selbst schwer wiegende Bugs bei Intel innerhalb kürzester Zeit verziehen werden wärend bei anderen Herstellern selbst bei sehr unwarscheinlich auftretenden Bugs ein riesen Aufstand gemacht und ewig nachgetragen wird.
Zum Thema Strombedarf muss man natürlich nichts schön reden. Dieser ist vor allem bei Vollast bei AMD deutlich höher allerdings schrumpft die Differenz bei (so gut wie nie getesteter) Teillast recht deutlich.
Bei Hartware haben sie sich allerdings mal die Mühe gemacht.
http://www.hartware.net/review_1544_4.html

Was mich an der Stelle mal brennend interessieren würde wäre wie die Reaktion gewesen wäre wenn Intel das Fusions Projekt rausgebracht hätte aber ich gehe jede Wette ein das die Bedeutung der GPU Leistung des Prozessors auf einmal massiv zunehmen wird wenn Intel hier schneller sein sollte. Dann wird höchst warscheinlich auch die Die Größe egal sein, denn höchst warscheinlich werden die User auf einmal auch bereit sein einen entsprechenden Aufpreis zu zahlen.

Genau bei solchen Punkten ist das zweierlei Maß doch sehr deutlich erkennbar.
Wie war die Freude der Intel gemeinde doch groß als bei der Westmere Architektur eine AES Unterstützung dazu kam? Bei der Gelegenheit wird sie allerdings beim Trinity gern ignoriert und als unwichtig abgetan....ein Zufall das sie der direkte Konkurrent, der i3 nicht besitzt?

Was ich bei den Tests fordere ist vor allem ein objektives Test Setup und das beinhaltet für mich auch eine kurze Untersuchung der Kernauslastung beim jeweiligen Test, sowie eine Untersuchung des Strombedarfs bei Teillast, welche bei Alltagssoftware normal ist, sowie eine zusätzliche Untersuchung des Strombedarfs bei vergleichbaren Voraussetzungen.
Das würde im Fall des i3 ebend bedeuten das ihm eine ähnlich leistungsfähige Grafikkarte wie die GPU des Llanos/Trinitys zur Seite gestellt wird.

Warum werden also vor allem von Foren Usern Vorteile von den AMD Produkten nur allso gern ignoriert oder als unwichtig hingestellt wärend die Stärken der Intel Produkten fast schon der heilige Gral angesehen werden?
 
Zum Thema Strombedarf muss man natürlich nichts schön reden. Dieser ist vor allem bei Vollast bei AMD deutlich höher allerdings schrumpft die Differenz bei (so gut wie nie getesteter) Teillast recht deutlich.
In Relation sind die FX bei Voll- wie Teil-Last genauso Stromfresser, nur die absolute Leistungsaufnahme geht runter. Sieht man Hartware wunderbar: Der FX-8350 gegen den i5-3550 hat bei Vollast (8C vs 4C) 220W zu 139W (63 %), bei Teil-Last (4C vs 2C) sind es 185W zu 112W (60 %). Meine Messungen zeigen das gleiche - kurz, die FX sind durch die Bank ineffizienter.

Genau bei solchen Punkten ist das zweierlei Maß doch sehr deutlich erkennbar. Wie war die Freude der Intel gemeinde doch groß als bei der Westmere Architektur eine AES Unterstützung dazu kam? Bei der Gelegenheit wird sie allerdings beim Trinity gern ignoriert und als unwichtig abgetan....ein Zufall das sie der direkte Konkurrent, der i3 nicht besitzt?
Die allermeisten Redaktionen testen mit AES seit es unterstützt wird und ergo ist Trinity hier schneller. Dein Vorwurf ist ziemlich haltlos. Welche bekannte Redaktion ignoriert AES?

Was ich bei den Tests fordere ist vor allem ein objektives Test Setup und das beinhaltet für mich auch eine kurze Untersuchung der Kernauslastung beim jeweiligen Test, sowie eine Untersuchung des Strombedarfs bei Teillast, welche bei Alltagssoftware normal ist, sowie eine zusätzliche Untersuchung des Strombedarfs bei vergleichbaren Voraussetzungen. Das würde im Fall des i3 ebend bedeuten das ihm eine ähnlich leistungsfähige Grafikkarte wie die GPU des Llanos/Trinitys zur Seite gestellt wird.
Wenn du einen i3-3220 mit einer HD 6570 GDDR5 koppelst, hast du mehr GPU-Leistung als bei einem A10-5800K bei geringerer Leistungsaufnahme (etwa in CoD MW2). Selbst mit einer klar schnelleren HD 6670 ist der Stromverbrauch nur in etwa auf i3-Niveau (hängt hier allerdings vom Spiel ab).
 
Warum werden also vor allem von Foren Usern Vorteile von den AMD Produkten nur allso gern ignoriert oder als unwichtig hingestellt wärend die Stärken der Intel Produkten fast schon der heilige Gral angesehen werden?

Wo liegen den die Stärken von AMD Produkten und welche Relevanz haben sie für die meisten PC User?

6 oder mehr SATA G6 und leistungsfähigere iGPU?

Das würde im Fall des i3 ebend bedeuten das ihm eine ähnlich leistungsfähige Grafikkarte wie die GPU des Llanos/Trinitys zur Seite gestellt wird.

Das spielt doch nur eine Rolle wenn die iGPU zum spielen genutzt werden soll und z.B. die Intel HD nicht für die gedachten Spiele reicht die APU von AMD aber schon. Das kann durchaus der Fall sein aber ich gehe eher davon aus das so gut wie alle Spieler mit PC lieber auf dGPU setzen werden.

Und in den Reviews zum Trinity finde ich schon das dort die bessere iGPU entsprechend gewürdigt wurde.
 
@y33H@
Den Mehrverbrauch bestreitet wohl auch keiner allerdings iet es ein Unterschied ob es bei max. Auslastung (bei der der FX-8350 oftmals auch noch schneller als der i5-3550 ist) ca. 80W sind oder bei einer warscheinlicheren Auslastung von 2 - 4 Kernen ca. 30 bzw. 50W beträgt.

Zum AES Punkt.....willst du die Tester wirklich auf den Punkt "Freude der Intel Gemeinde" beziehen?
Mir ist klar das es mit getestet wid aber deutet die Formulierung nicht eher auf die Diskussionen in den Foren hin?
Hier wird bis zum erbrechen auf der schwächeren Singlethread Leistung und dem höheren Strombedarf rumgehackt und dabei die höhere bis gleichwertige Multicore Leistung, die deutlich leistungsstärkere GPU und AES Leistung fast schon ignoriert bzw. klein geredet.

2 wichtige Punkte beim "i3-3220 mit einer HD 6570" Thema übersiehst du allerdings.
Die zusätzliche Grafikkarte verursacht auch zusätzliche Kosten und frißt natürlich auch zusätzlich Strom, wodurch der Abstand zwischen beide deutlich schrumpfen dürfte. Ausgehend von der HD5570 wären das in Idle zusätzlich ca. 8W, bei Last hingegen 30-37W. Lastet das Spiel beim Trinity dann auch noch nur 1-2 Kerne aus dann fällt auch der Strom Bedarf des CPU Parts des Trinitys dem entsprechen geringer aus.
Gerade bei den Fusions Produkten ist das Thema ganz einfach deutlich komplexer als es idR getestet wird.

Womit wir dann auch bei einem Schwachpunkt von fast jedem CPU Test wären....Multitasking Tests bzw. die Abwesenheit selbiger, was ich insbesondere im Zeitalter der Multicore Prozessoren und der mangelhafter Programm Unterstützung für grob fahrlässig halte. Selbst bei Tests wo dies durchgeführt wurde werden idR. lediglich Benchmark Ergebnisse des Hauptprogramms geliefert. Wo ist da der Sinn? Es sind doch gerade die zusätzlichen Programme die für eine bessere Auslastung des Prozessors sorgen bzw. diesen im Test nach Möglichkeit auslasten sollten.
Hier ist dann auch recht schnell klar das Singlethread starke Prozessoren mit weniger Kernen beim primären Programm, welches nur wenige Kerne nutzen kann, aufgrund der höheren Auslastung stark abschneidet. Für die sekundären Programme bleibt hingegen weniger Rechenleistung übrig aber hier können wiederum Konzepte mit mehr leistungsschwächeren Kernen Punkten.
Ein recht einfaches Beispiel aus dem Desktop Alltag könnte sein das man geleichzeitig zockt und ein Video umwandelt.
Betrachtet man hier lediglich die Ergebnisse des ersten Programms hat das recht wenig mit der Multitasking Leistung zu tuen.
.
EDIT :
.

Wo liegen den die Stärken von AMD Produkten und welche Relevanz haben sie für die meisten PC User?

6 oder mehr SATA G6 und leistungsfähigere iGPU?



Das spielt doch nur eine Rolle wenn die iGPU zum spielen genutzt werden soll und z.B. die Intel HD nicht für die gedachten Spiele reicht die APU von AMD aber schon. Das kann durchaus der Fall sein aber ich gehe eher davon aus das so gut wie alle Spieler mit PC lieber auf dGPU setzen werden.

Und in den Reviews zum Trinity finde ich schon das dort die bessere iGPU entsprechend gewürdigt wurde.

Dann stelle ich dir mal ein paar kleine Fragen.....warum ist es für einige Leute auf einmal so wichtig das bei den aktuellen Intel Chipsätzen z.B. USB 3.0 nativ unterstützt wird und verkrampft sich hierbei auf einen AM3+ Vergleich, wärend das der Chipsatz des Llanos bereits seit über einem Jahr kann?
Warum sollte man sich im Llano/Trinity Lager umschauen wenn man nicht auch an der GPU Leistung interessiert ist? Und ja...mit dem Llano kann man diverse Spiele spielen und ich spiele mit meinem auch.
 
@ sompe

Wie gesagt, natürlich sinkt die absolute Differenz bei Teillast - nicht aber die relative und genau das sind mit die beiden größten Kritikpunkte an den FX. Die Singlethread-Leistung wie auch der Stromverbrauch sind für das Groß der User relevanter als die iGPU-Leistung und mit AES hat Average Joe eh ziemlich wenig am Hut. Davon ab zeige bitte mal auf wo die AES-Leistung explizit im Text klein geredet wird - das Review würde ich gerne sehen.

Wie ich im Falle des "i3-3220 mit einer HD 6570"-Thema schon sagte, obwohl die HD 6570m zusätzlich Strom frisst, ist der Verbrauch des kompletten Systems immer noch geringer als beim A10-5800K. Die höheren Kosten sind natürlich ein Argument, dafür hast du aber eben auch mehr Leistung, was die Kosten etwas relativiert. In der Komplexität wie es sich manche wünschen, lassen sich diverse Produkte nun mal nicht reproduzierbar vergleichen und wenn, dass kostet es extrem viel Zeit und beinhaltet recht viele Spezialfälle.

Multitasking-Tests habe ich schon ein paar Mal gemacht, zB ein Spiel laufen laufen und im Hintergrund auf einen Kern Bilder resizen oder auf zwei Kernen ein Video rendern. Das Resultat war damals (i7-3770K gegen FX-8150), dass der FX die zusätzliche Last etwas besser stemmt, die Spiele-Leistung aber dennoch deutlich geringer ist und er seine vier Module nur ausspielen kann, wenn alle genutzt werden (und dann kannst du nichts anderes aufwendiges wie AAA-Spiele mehr parallel laufen lassen) - bei Multitasking wo mehrere einzelne Programme nur ein zwei Kerne nutzen, ist der FX im Nachteil.

Dann stelle ich dir mal ein paar kleine Fragen.....warum ist es für einige Leute auf einmal so wichtig das bei den aktuellen Intel Chipsätzen z.B. USB 3.0 nativ unterstützt wird und verkrampft sich hierbei auf einen AM3+ Vergleich, wärend das der Chipsatz des Llanos bereits seit über einem Jahr kann?
Weil der FM1 die Konkurrenz für die Pentiums oder maximal Core i3 war, der AM3+ aber mit dem 1155 und dessen schnelleren i5/i7-Prozessoren konkurriert.
 
Zuletzt bearbeitet:
Zurück
Oben Unten