Core i7: Bei GPU-Limitierung offenbar langsamer als die Konkurrenz

Ich verfolge diesen Thread gerade ein bißchen und bleibe dennoch nur oberflächlich. Es geht ja heiß her ...

Die Frage, die sich mir gerade insgeheim stellt - weil sie mich während meiner Arbeit ständig quält - ist: wenn die benannten Spieletests den Bereich der GPU-Limitierungen verlassen und herausarbeiten, wie schnell die CPU-basierte Infrastruktur ist, wie sehr fällt das Konzept der Spielesoftware ins Gewicht, die jeweilige Architektur zu berücksichten? Wie stark kann die Software, also das Spiel, adaptiv auf die CPU-Architektur reagieren? In meinem bescheidenen Fall mache ich mir stets Compiler-Optionen zunutze, die dann meine Software brav auf gewisse architektonische Eigenheiten anpaßt. Großer Cache vorhanden, also große Buffer. Ist Interconnect auch noch schnell, noch größere Buffer(boundaries). Ist Cache groß und Interconnect schmal (C2D, FSB), Kompromiß. Ich habe nicht sehr viel Ahnung, schon die Spielereien mit dem gcc43/gcc44 hinsichtlich bestimmter Optimierungen läßt manchmal komische Ergebnisse auf einem Opteron 2XX und dann auf einem C2D Q6600 zutage treten.
Lange Rede, kurzer Sinn: Welchen Sinn macht es Software zu testen, die eventuell gar nicht bewußt auf neue Technologien eingehen kann, weil sie deren 'Topologie' gar nicht kennt? Ich meine damit: AMDs Konzept ist hinlänglich bekannt, es gibt Compiler, die dessen Architektur berücksichtigen, so auch die des C2D. Der C2D bringt bekanntlich sehr große Caches mit sich. Was, wenn die getestete Software, wenn sie 'Intel' sieht, ebensolche großen Caches voraussetzt. Bekanntlich ist Intels neuer Wurf ja mit ziemlich mickrigen Level 2 Caches ausgestattet ...
 
...
- Wie stark kann die Software, also das Spiel, adaptiv auf die CPU-Architektur reagieren?

In meinem bescheidenen Fall mache ich mir stets Compiler-Optionen zunutze, die dann meine Software brav auf gewisse architektonische Eigenheiten anpasst:
-Großer Cache vorhanden, also große Buffer.
- Ist Interconnect auch noch schnell, noch größere Buffer(boundaries).
- Ist Cache groß und Interconnect schmal (C2D, FSB), Kompromiß.

Lange Rede, kurzer Sinn: [...] Der C2D bringt bekanntlich sehr große Caches mit sich. Was, wenn die getestete Software, wenn sie 'Intel' sieht, ebensolche großen Caches voraussetzt. Bekanntlich ist Intels neuer Wurf ja mit ziemlich mickrigen Level 2 Caches ausgestattet ...
Du bringst da etwas zur Sprache, was durchaus jetzt in der Übergangsphase zwischen Penryn und Nehalem paradoxe Benchmarks erklären könnte.

Ich habe keine Ahnung in wie weit große Bildauflösungen auch mehr Traffic pro Frame auf den Prozessor durchschlagen. Beim Nehalem ist der L2-Cache tatsächlich gehörig eingedampft und der L3-Cache ist langsamer als der L2-Cache.

Ich spekuliere mal, dass in diesem Fall womöglich der Shanghai-Phenom mit dem etwas größerem L2-Cache gegenüber dem Nehalem irgendwann aufschliesst und möglicherweise der HyperTransport Link gut genug ist bei höheren Auflösungen genügend Daten anzufordern.
Der Nehalem hingegen womöglich mit dem QuickPath-Interconnect aber hingegen kann diesen fehlenden L2-Cache ungenügend kompensieren.

Für mich hört sich das stimmig an. Ein Indiz für die These ist, dass SMT bei vielen Spielen kaum Nutzen bringt, bzw. sogar schädlich ist. SMT-Technik hat den Nachteil dass der L2-Cache verkleinert wird, weil nun in diesem Falle für doppelt so viel Kerne Daten zwischengespeichert werden. Fragt sich nun wie man diese Behauptungen auch nachweisen kann.

MFG Bobo(2009)
 
[...]
Für mich hört sich das stimmig an. Ein Indiz für die These ist, dass SMT bei vielen Spielen kaum Nutzen bringt, bzw. sogar schädlich ist. SMT-Technik hat den Nachteil dass der L2-Cache verkleinert wird, weil nun in diesem Falle für doppelt so viel Kerne Daten zwischengespeichert werden. Fragt sich nun wie man diese Behauptungen auch nachweisen kann.

MFG Bobo(2009)

Spiele interessieren mich nicht. 64Bit Software, wissenschaftliche, mit hohem Speicherdurchsatz und Fließkommaanteil. Möglichst nur auf einer CPU - mehr Geld ist leider nicht in unseren Töpfen. Privat möchte ich auch so eine Maschine haben, um weiterarbeiten zu können, wenn ich nicht auf der Arbeit bin.
Bis heute habe ich noch keinen wirklich objektiven Testparcours AMD - Intel mit folgenden Eigenschaften gesehen:

- reine 64Bit Software (OS und Anwendung, LINPACK z.B.)
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Takt
- gleicher Speichertypus (DDR3-1066/Vollausbau)
- Speichervollausbau

Ich denke, da würden sich plötzlich so einige Wimpern zuckend nach oben bewegen ...

Es ist zwar OT, dennoch ... am liebsten würde ich AMD strafend aus dem Lande werfen für diese Katastrophe. Ich sehe, wie sich derzeit die Softwarelandschaft rapide ändert. Wir recompilieren nahezu jedes Modell auf 64Bit, patchen, lassen OpenMP-PRAGMA Anweisungen in die Software einfließen, wo es nur geht und es ungefährlich ist. Intels neuer Wurf hat allerdings Dank seiner mickrigen 1st und 2nd Level Chaches sowie der eher winzig ausgefallenen Prefetchbuffer keine guten 64Bit Abilitäten - wenn, dann durch brachiale Gewalt der anderen Einheiten. Intel hätte es besser gekonnt! Stattdessen knapp an der Schmerzgrenze ... Solange dieses verfluchte Seuchensystem Windows dominierend ist, wird dieses Ränkespiel nicht enden! Wozu echte 64Bit Fähigkeiten, wenn 90% aller PCs sowieso mit 32Bit Relikten betrieben werden?
 
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Speichertypus (DDR3-1066/Vollausbau)


Wie kommst du drauf das nur 12GB gehen?
Es gibt inzwischen 4GB Module hier ohne ECC

Kingston ValueRAM DIMM 4GB PC3-8500U CL7 (DDR3-1066) (KVR1066D3N7/4G)
http://geizhals.at/deutschland/a411317.html

hier 4GB mit ECC
Kingston ValueRAM DIMM 4GB PC3-8500E ECC CL7 (DDR3-1066) (KVR1066D3E7S/4G)
http://geizhals.at/deutschland/a415027.html

bzw. 24GB mit 8GB ECC Modulen
Kingston ValueRAM DIMM Kit 24GB PC3-8500R reg ECC CL7 (DDR3-1066) (KVR1066D3Q4R7SK3/24G)
http://geizhals.at/deutschland/a419647.html


Das die Verfügbarkeit ziemlich rar ist wie man auch den Links entnehmen kann, ist mir bekannt.Ich wollte nur auf diesem Wege zeigen das dies durchaus möglich ist.


mfg
 
Wie ich darauf komme?
Ganz einfach. Als die Tests durchgeführt wurden, waren 4GB Module mit oder ohne ECC (UNREGISTRIERT) (noch) nicht am Markt verfügbar, also wurden seitens der Tester eben jene Tests durchgeführt.

Nur damit wir keinem Mißverständnis auflaufen: Auch die Einzelsockel-XEONs mögen kein registriertes RAM!

Und 'derzeit' ist in meinem Posting bereits enthalten. Wi dieses 'derzeit' im Detail zustande kommt, habe ich offen gelassen, im stillen Einvernehmen, man wisse ob der Umstände. Das war ein Irrtum, offenbar.
 
Und 'derzeit' ist in meinem Posting bereits enthalten. Wi dieses 'derzeit' im Detail zustande kommt, habe ich offen gelassen, im stillen Einvernehmen, man wisse ob der Umstände. Das war ein Irrtum, offenbar.
Naja, ist doch einfach zu umgehen, schreib einfach "seinerzeit" oder "zum Testzeitpunkt" :)

Dann ist das klar. Bei "derzeit" denke ich auch an "genau jetzt im Moment" ;-)

An die angesprochenen Tests kann ich mich auch noch erinnern, war zum i7 Start bei der c't .. da gabs nicht mal 4GB DIMM Testmuster.

ciao

Alex
 
Spiele interessieren mich nicht. 64Bit Software, wissenschaftliche, mit hohem Speicherdurchsatz und Fließkommaanteil. Möglichst nur auf einer CPU - mehr Geld ist leider nicht in unseren Töpfen. Privat möchte ich auch so eine Maschine haben, um weiterarbeiten zu können, wenn ich nicht auf der Arbeit bin.
Bis heute habe ich noch keinen wirklich objektiven Testparcours AMD - Intel mit folgenden Eigenschaften gesehen:

- reine 64Bit Software (OS und Anwendung, LINPACK z.B.)
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Takt
- gleicher Speichertypus (DDR3-1066/Vollausbau)
- Speichervollausbau

Ich denke, da würden sich plötzlich so einige Wimpern zuckend nach oben bewegen ...

Es ist zwar OT, dennoch ... am liebsten würde ich AMD strafend aus dem Lande werfen für diese Katastrophe. Ich sehe, wie sich derzeit die Softwarelandschaft rapide ändert. Wir recompilieren nahezu jedes Modell auf 64Bit, patchen, lassen OpenMP-PRAGMA Anweisungen in die Software einfließen, wo es nur geht und es ungefährlich ist. Intels neuer Wurf hat allerdings Dank seiner mickrigen 1st und 2nd Level Chaches sowie der eher winzig ausgefallenen Prefetchbuffer keine guten 64Bit Abilitäten - wenn, dann durch brachiale Gewalt der anderen Einheiten. Intel hätte es besser gekonnt! Stattdessen knapp an der Schmerzgrenze ... Solange dieses verfluchte Seuchensystem Windows dominierend ist, wird dieses Ränkespiel nicht enden! Wozu echte 64Bit Fähigkeiten, wenn 90% aller PCs sowieso mit 32Bit Relikten betrieben werden?
Irgendwie ist die Logik des Beitrags zu hoch für mich, denn für mich kommt es so rüber das du über den Aufbaus des i7 schimpfst wie ein Rohrspatz und AMD ist dran schuld. ???
Würde man die Testbedingungen wie von dir erwünscht herstellen ist der Test aber ebenfalls Sinnfrei, denn das i7 System würde in einer ganz anderen Preisliga spielen und der Speicherausbau (ich tippe auf min. 16GB wegen der 8 virtuellen Kerne, welche beim Vollausbau notgedrungen auf 24GB anschwellen) wäre nichtmal ansatzweise vergleichbar.
mit einem Punkt habe ich ein besonders grosses Problem, nämlich mit dem Stichpunkt "- gleicher Takt".
Worauf bezieht er sich? Die Taktfrequenz des Prozessors, die Taktfrequenz des Arbeitsspeichers oder gar die der QPI/HT Verbindung? Wobei ich letzteres für sehr unwarscheinlich halte.
 
Wie kommst du drauf das nur 12GB gehen?
Es gibt inzwischen 4GB Module hier ohne ECC

Kingston ValueRAM DIMM 4GB PC3-8500U CL7 (DDR3-1066) (KVR1066D3N7/4G)
http://geizhals.at/deutschland/a411317.html

hier 4GB mit ECC
Kingston ValueRAM DIMM 4GB PC3-8500E ECC CL7 (DDR3-1066) (KVR1066D3E7S/4G)
http://geizhals.at/deutschland/a415027.html

bzw. 24GB mit 8GB ECC Modulen
Kingston ValueRAM DIMM Kit 24GB PC3-8500R reg ECC CL7 (DDR3-1066) (KVR1066D3Q4R7SK3/24G)
http://geizhals.at/deutschland/a419647.html


Das die Verfügbarkeit ziemlich rar ist wie man auch den Links entnehmen kann, ist mir bekannt.Ich wollte nur auf diesem Wege zeigen das dies durchaus möglich ist.


mfg

Es ist so enorm gut möglich, dass selbst die c't bisher noch keinen kompletten 64bit spec-Test auf corei7 durchgeführt hat. Wenn die keine 4GB Module herschaffen können, dürfte es kaum jemand anderem gelingen........Dass es theoretisch solche Module gibt, ist schon klar.
.
EDIT :
.
Spiele interessieren mich nicht. 64Bit Software, wissenschaftliche, mit hohem Speicherdurchsatz und Fließkommaanteil. Möglichst nur auf einer CPU - mehr Geld ist leider nicht in unseren Töpfen. Privat möchte ich auch so eine Maschine haben, um weiterarbeiten zu können, wenn ich nicht auf der Arbeit bin.
Bis heute habe ich noch keinen wirklich objektiven Testparcours AMD - Intel mit folgenden Eigenschaften gesehen:

- reine 64Bit Software (OS und Anwendung, LINPACK z.B.)
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Takt
- gleicher Speichertypus (DDR3-1066/Vollausbau)
- Speichervollausbau

Ich denke, da würden sich plötzlich so einige Wimpern zuckend nach oben bewegen ...

Was willst Du, solche Tests gibt es. Kauf Dir eine c't mit den ensprechenden Tests und gut is. Specfp_rate, da haben die einfach den einen Teiltest, der tatsächlich 2GB pro Kern braucht, auf 32bit kompiliert, alle anderen Tests sind als 64bit Kompilate gelaufen. Entgegen Deiner Ansichten schneidet auch i7 in 64bit nicht schlecht ab. Es gibt nach dem, was ich gesehen habe, keine 64bit Schwäche bei Nehalem.

Was genau soll der Test bei gleichem Takt? Ich verstehe den Sinn dahinter nie. Du willst eine bestimmte Leistung haben, oder? Da ist es völlig wurscht, mit welchem Takt eine bestimmte Maschine läuft. Entscheidend ist, mit wieviel Geld Du wieviel Leistung kaufen kannst und gut is......Dabei ist es sogar egal, ob das ganze unter dem Dir verhassten Windows läuft, unter Linux, Solaris oder sonstwas. Sogar die Hardware-Architektur ist egal, ob x86, x64, MIPS, Power oder sonstwas. Du meckerst ja auch in anderen threads gelegentlich, dass es alles Windows-x86-Monokultur sei beim HPC. Und wie viel Schöner es doch wäre, wenn es immer noch schöne Risc-Workstations gäbe (nebenbei: gibt es doch!). Gleichzeitig erzählst Du hier, dass das Geld nicht für mehr als single-CPU Maschinen reicht. Ohne x86-x64-Windows-Linux Einheitskost würde Euer Geld für überhaupt nichts reichen außer manuellen Rechenschiebern, schon mal ernsthaft darüber nachgedacht?

Ob das, was Du letztlich mit der Maschine machen willst, schneller auf einem i7 oder auf einem Phenom läuft, kannst nur Du beantworten, indem Du es ausprobierst. Ich denke, die Chancen stehen nicht so schlecht, dass Du für wissenschaftliche Berechnungen mit einem i7 am Ende des Tages mehr wirst rechnen können. Aber wie gesagt, letztlich muss man das für jede Anwendung ausprobieren.
 
Zuletzt bearbeitet:
Es ist so enorm gut möglich, dass selbst die c't bisher noch keinen kompletten 64bit spec-Test auf corei7 durchgeführt hat. Wenn die keine 4GB Module herschaffen können, dürfte es kaum jemand anderem gelingen........Dass es theoretisch solche Module gibt, ist schon klar.

Bitte folge doch einfach den Link.Solange es Händler gibt die den Speicher mit 3Tage Lieferzeit angeben dann ist das so.
c't wird solche Tests nicht auf den letzten Drücker machen sondern Wochen vorher wo es sehr wahrscheinlich den Speicher noch nicht gab. Der Speicher ist auch erst seit dem 10.03.2009 auf Geizhals gelistet was natürlich noch lange nicht heißt das dieser dann auch käuflich erwebbar war.;)
 
Zuletzt bearbeitet:
Also ganz ehrlich, ich finde die ganze Diskussion vollkommen Hanebüchen!

Bei Spielen ist der Core i7 920 etwa gleichschnell
Beim Renderjobs ist er teilweise deutlich schneller wenn man sich die Prozentzahlen anschaut.

Wir haben uns grad eine neue Render Workstation mit i7 920 neben unseren bewährten Phenom II 940 gestellt.

Tatsächlich ist er knapp 20% schneller bei deutlich höherem Anschaffungspreis (Board, DDR3).

Das Resultat ist jetzt das der i7 920 anstatt 60min für den Job der Woche nur noch sensationelle 51min braucht.

Soviel sind dann knappe 20% in der Realität.

Es macht also aus meinen Augen noch nichtmal dann Sinn den Aufpreis für den i7 zu bezahlen wenn er in seiner Paradedisziplin arbeitet.
 
Wir haben uns grad eine neue Render Workstation mit i7 920 neben unseren bewährten Phenom II 940 gestellt.

Tatsächlich ist er knapp 20% schneller bei deutlich höherem Anschaffungspreis (Board, DDR3).

Das Resultat ist jetzt das der i7 920 anstatt 60min für den Job der Woche nur noch sensationelle 51min braucht.

Soviel sind dann knappe 20% in der Realität.

Es macht also aus meinen Augen noch nichtmal dann Sinn den Aufpreis für den i7 zu bezahlen wenn er in seiner Paradedisziplin arbeitet.

Der Sinn wird sich dir erschließen wenn du das ganze auf das Jahr mal hochrechnen tust. Stark vereinfacht ausgedrückt du sparst 468Minuten was abgerundet 9 Projekte der Woche sind. Was das heißt brauch ich dir nicht sagen.

mfg
 
Eine meiner letzten 'Anwendungen' lief 90 Tage, bis Ergebnisse vorlagen. In dieser Zeit bangt man, ob denn USV und Rechner 'durchhalten'. Wie so oft in unserer rastlosen Zeit wird weniger nachgedacht und gleich ausprobiert - so sind dann auch viele Modelle und deren Parameter (nicht ganz) Schüsse ins Blaue. Wenn mir 20% dieser Zeit erspart bliebe, sind das 18 Tage! Und ich wage zu behaupten, daß dies eine gewisse Relevanz hat.

Schon in einem halben Jahr wird ein Großteil der Compiler und Software mit dem Core-i7 gut umzugehen wissen und dann werden die Leistungsabstände zum Phenom II noch ein wenig weiter gedehnt - bei Vergleich beider jetzt verwendeter Architekturen.
 
Eine meiner letzten 'Anwendungen' lief 90 Tage, bis Ergebnisse vorlagen. In dieser Zeit bangt man, ob denn USV und Rechner 'durchhalten'. Wie so oft in unserer rastlosen Zeit wird weniger nachgedacht und gleich ausprobiert - so sind dann auch viele Modelle und deren Parameter (nicht ganz) Schüsse ins Blaue. Wenn mir 20% dieser Zeit erspart bliebe, sind das 18 Tage! Und ich wage zu behaupten, daß dies eine gewisse Relevanz hat.

Schon in einem halben Jahr wird ein Großteil der Compiler und Software mit dem Core-i7 gut umzugehen wissen und dann werden die Leistungsabstände zum Phenom II noch ein wenig weiter gedehnt - bei Vergleich beider jetzt verwendeter Architekturen.

In dem Szenario lohnt ja sogar das Topmodell 965. Ob nun 250€ oder 1000€ für die CPU ist doch total latte, wenn man mehrere Tage Warte- und Arbeitszeit spart. Außer Du bist öffentlicher Angestellter, der unter dem Motto:"den müssen wir eh bezahlen, egal, wie produktiv er ist" durchgeht, dann sind die Betrachtungen natürlich etwas anders. Aber ansonsten lohnt hier ja offensichtlich auch ein Nehalem-EP, sofern die Arbeit beliebig skaliert.......
 
Keine Frage, Intel hat schon früh verstanden mit den richtigen Tunig-Tools und wichtigen Systemintegratoren ihre Prozessoren ins rechte Licht zu setzen.

Aber AMD ist seit einiger Zeit nicht tatenlos geblieben. Hochinteressant ist unter anderem ASF (Advanced Synchronization Facility). Das experimentelle Tool steht für folgendes:
... The AMD Advanced Synchronization Facility (ASF) is an experimental instruction set extension for the AMD64 architecture that would provide new capabilities for efficient synchronization of access to shared data in highly multithreaded applications as well as operating system kernels.

ASF provides a means for software to inspect and update multiple shared memory locations atomically without having to rely on locks for mutual exclusion. It is intended to facilitate lock-free programming for highly concurrent shared data structures, allowing more complex and higher performance manipulation of such structures than is practical with traditional techniques based on compare-swap instructions such as CMPXCHG16B.

ASF code can also interoperate with lock-based code, or with Software Transactional Memory. ...
Also auch AMD schaut nach Anwendungen, die Multithreaded sind . Sie nehmen die Herausforderung mit dem Nehalem und der SMT-Technik an.

Aber auch wie Strings in AMDs Sinne genutzt werden kann man dort erhaschen: "Faster String Operations".

In Videobereich hat AMD wohl Colfax promotet. Diese bauen Videoschnitt-PCs vor allem mit Sonys Vega-Software (Vegas Pro 9). Die Colfax Digistation CX980 wird zur Zeit ganz besonders beworben.

Ich würde zu gerne wissen, in wie weit dann die Produktivität zunimmt, wenn die Software tatsächlich optimiert wird auf die AMD-Prozessoren - Traditionell ist der Support bei Intel für Software immer besser. Kein Wunder, wenn in etwa 6000 Menschen* bei Intel für diesen Fremd-Support bei Sun, HP, IBM, Dell und wer weiss sonst wo, an den vielen Stellschrauben drehen.

MFG Bobo(2009)

* = Zahlen von Intel-Salesman beim Sun-Intel Event zur Einführung der Nehalems mit den Xeons der 5500- und 3500-Serien, April 2009.
 
Zuletzt bearbeitet:
Du bringst da etwas zur Sprache, was durchaus jetzt in der Übergangsphase zwischen Penryn und Nehalem paradoxe Benchmarks erklären könnte.

Ich habe keine Ahnung in wie weit große Bildauflösungen auch mehr Traffic pro Frame auf den Prozessor durchschlagen. Beim Nehalem ist der L2-Cache tatsächlich gehörig eingedampft und der L3-Cache ist langsamer als der L2-Cache.

Ich spekuliere mal, dass in diesem Fall womöglich der Shanghai-Phenom mit dem etwas größerem L2-Cache gegenüber dem Nehalem irgendwann aufschliesst und möglicherweise der HyperTransport Link gut genug ist bei höheren Auflösungen genügend Daten anzufordern.
Der Nehalem hingegen womöglich mit dem QuickPath-Interconnect aber hingegen kann diesen fehlenden L2-Cache ungenügend kompensieren.

Für mich hört sich das stimmig an. Ein Indiz für die These ist, dass SMT bei vielen Spielen kaum Nutzen bringt, bzw. sogar schädlich ist. SMT-Technik hat den Nachteil dass der L2-Cache verkleinert wird, weil nun in diesem Falle für doppelt so viel Kerne Daten zwischengespeichert werden. Fragt sich nun wie man diese Behauptungen auch nachweisen kann.

MFG Bobo(2009)
Naja, das munkelt man ja schon immer, das der kleine L2 zu wenig für Spiele ist.
Ich sehe den jetzigen Core i7 eh nur als Willamette an.
Außerdem kennen wir doch die Programmierkünste der meisten Spielsoftwareschmieden zu genüge, es wird doch nichts ernsthaft unterstützt was Leistung bringen könnte weil es mehr mühe machen würde, der Spieler kann ja wieder was neues kaufen.
Genauso sieht es bei Mehrkern oder 64 Bit Patches aus, häufig genug garnix gebracht bis eher nachteiliges.
 
In dem Szenario lohnt ja sogar das Topmodell 965. Ob nun 250€ oder 1000€ für die CPU ist doch total latte, wenn man mehrere Tage Warte- und Arbeitszeit spart. Außer Du bist öffentlicher Angestellter, der unter dem Motto:"den müssen wir eh bezahlen, egal, wie produktiv er ist" durchgeht, dann sind die Betrachtungen natürlich etwas anders. Aber ansonsten lohnt hier ja offensichtlich auch ein Nehalem-EP, sofern die Arbeit beliebig skaliert.......

Soetwas wird man der Verwaltung gegenüber nie durchsetzen können! Die Verwaltungsangestellten haben schon Probleme, wenn der Begriff 'Skalierbarkeit' auftaucht. Geldmittel sind knapp und an den Tröpfen hangen meist noch viele andere arme 'Schweine'. Die Informatiker, die hauptberuflich eigentlich solche Dienstleistungen und Abwägungen erledigen sollten, schaukeln ihre eier oder sind zu dämlich, um diesen Aspekt rational betrachten zu können. Ich habe mich diesbezüglich schon zu lange aufgeregt.
Ideal ist in solchen Fällen in der Tat eine leicht zentralisierte Rechnerarchitektur - aber die meisten meiner Kollegen können ihren Horizont nicht über das Windows-Fenster erweitern und/oder sind nicht bereit Kompromisse einzugehen. So verteilt sich die Leistung meist 1/n, obwohl die Bedürfnisse eine ganz andere Wichtung haben.
 
In der Realität liegt ihr alle aber wiederum daneben, weil Tagsüber an dem Ding nur gebastelt wird, und nachts als Batch gerechnet wird. etwa 3-5 Renderjobs die Nacht, und zumindest in allen Szenarien die ich kenne läuft das immer so!

Das ganze hat zur Folge das morgends wenn man ins Lab kommt beide fertig sind. sowohl i7 als auch PII
 
noch ein neues beispiel.

http://www.pcgameshardware.de/aid,6...arten-und-CPU-Benchmarks/Strategiespiel/Test/

in alter 17er auflösung führt der i7 965, in heutiger 22er mit aa gibt er wieder auf.

auf die frage im forum, ob werte vertauscht wurden, die antwort von pcgh_marc

Zitat:
"Kein Tippfehler, der i7 knickt einen Tick ein [3 Durchläufe gemittelt]."

spricht bände....


Also wenn du das aufgeben nennst.

Immer noch weitaus schneller als der Phenom oder der C2Q.
 
Naja, zum Yorkfield ist es etwas mehr.
Jedenfalls nicht dolle wenn man sich den Preis der Cpu ansieht.
Na egal, es ist keine Spiele Cpu, ganz einfach.
Oder einfacher gesagt.
Die Spiele sind immer noch nicht vernünftig Mehrkernprogrammiert.*engel*
 
Zurück
Oben Unten