App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Core i7: Bei GPU-Limitierung offenbar langsamer als die Konkurrenz
- Ersteller galaxor
- Erstellt am
das muss doch nicht sein, oder?Nee,aber de rosarote AMD Brille hat er auf
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Ich verfolge diesen Thread gerade ein bißchen und bleibe dennoch nur oberflächlich. Es geht ja heiß her ...
Die Frage, die sich mir gerade insgeheim stellt - weil sie mich während meiner Arbeit ständig quält - ist: wenn die benannten Spieletests den Bereich der GPU-Limitierungen verlassen und herausarbeiten, wie schnell die CPU-basierte Infrastruktur ist, wie sehr fällt das Konzept der Spielesoftware ins Gewicht, die jeweilige Architektur zu berücksichten? Wie stark kann die Software, also das Spiel, adaptiv auf die CPU-Architektur reagieren? In meinem bescheidenen Fall mache ich mir stets Compiler-Optionen zunutze, die dann meine Software brav auf gewisse architektonische Eigenheiten anpaßt. Großer Cache vorhanden, also große Buffer. Ist Interconnect auch noch schnell, noch größere Buffer(boundaries). Ist Cache groß und Interconnect schmal (C2D, FSB), Kompromiß. Ich habe nicht sehr viel Ahnung, schon die Spielereien mit dem gcc43/gcc44 hinsichtlich bestimmter Optimierungen läßt manchmal komische Ergebnisse auf einem Opteron 2XX und dann auf einem C2D Q6600 zutage treten.
Lange Rede, kurzer Sinn: Welchen Sinn macht es Software zu testen, die eventuell gar nicht bewußt auf neue Technologien eingehen kann, weil sie deren 'Topologie' gar nicht kennt? Ich meine damit: AMDs Konzept ist hinlänglich bekannt, es gibt Compiler, die dessen Architektur berücksichtigen, so auch die des C2D. Der C2D bringt bekanntlich sehr große Caches mit sich. Was, wenn die getestete Software, wenn sie 'Intel' sieht, ebensolche großen Caches voraussetzt. Bekanntlich ist Intels neuer Wurf ja mit ziemlich mickrigen Level 2 Caches ausgestattet ...
Die Frage, die sich mir gerade insgeheim stellt - weil sie mich während meiner Arbeit ständig quält - ist: wenn die benannten Spieletests den Bereich der GPU-Limitierungen verlassen und herausarbeiten, wie schnell die CPU-basierte Infrastruktur ist, wie sehr fällt das Konzept der Spielesoftware ins Gewicht, die jeweilige Architektur zu berücksichten? Wie stark kann die Software, also das Spiel, adaptiv auf die CPU-Architektur reagieren? In meinem bescheidenen Fall mache ich mir stets Compiler-Optionen zunutze, die dann meine Software brav auf gewisse architektonische Eigenheiten anpaßt. Großer Cache vorhanden, also große Buffer. Ist Interconnect auch noch schnell, noch größere Buffer(boundaries). Ist Cache groß und Interconnect schmal (C2D, FSB), Kompromiß. Ich habe nicht sehr viel Ahnung, schon die Spielereien mit dem gcc43/gcc44 hinsichtlich bestimmter Optimierungen läßt manchmal komische Ergebnisse auf einem Opteron 2XX und dann auf einem C2D Q6600 zutage treten.
Lange Rede, kurzer Sinn: Welchen Sinn macht es Software zu testen, die eventuell gar nicht bewußt auf neue Technologien eingehen kann, weil sie deren 'Topologie' gar nicht kennt? Ich meine damit: AMDs Konzept ist hinlänglich bekannt, es gibt Compiler, die dessen Architektur berücksichtigen, so auch die des C2D. Der C2D bringt bekanntlich sehr große Caches mit sich. Was, wenn die getestete Software, wenn sie 'Intel' sieht, ebensolche großen Caches voraussetzt. Bekanntlich ist Intels neuer Wurf ja mit ziemlich mickrigen Level 2 Caches ausgestattet ...
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Du bringst da etwas zur Sprache, was durchaus jetzt in der Übergangsphase zwischen Penryn und Nehalem paradoxe Benchmarks erklären könnte....
- Wie stark kann die Software, also das Spiel, adaptiv auf die CPU-Architektur reagieren?
In meinem bescheidenen Fall mache ich mir stets Compiler-Optionen zunutze, die dann meine Software brav auf gewisse architektonische Eigenheiten anpasst:
-Großer Cache vorhanden, also große Buffer.
- Ist Interconnect auch noch schnell, noch größere Buffer(boundaries).
- Ist Cache groß und Interconnect schmal (C2D, FSB), Kompromiß.
Lange Rede, kurzer Sinn: [...] Der C2D bringt bekanntlich sehr große Caches mit sich. Was, wenn die getestete Software, wenn sie 'Intel' sieht, ebensolche großen Caches voraussetzt. Bekanntlich ist Intels neuer Wurf ja mit ziemlich mickrigen Level 2 Caches ausgestattet ...
Ich habe keine Ahnung in wie weit große Bildauflösungen auch mehr Traffic pro Frame auf den Prozessor durchschlagen. Beim Nehalem ist der L2-Cache tatsächlich gehörig eingedampft und der L3-Cache ist langsamer als der L2-Cache.
Ich spekuliere mal, dass in diesem Fall womöglich der Shanghai-Phenom mit dem etwas größerem L2-Cache gegenüber dem Nehalem irgendwann aufschliesst und möglicherweise der HyperTransport Link gut genug ist bei höheren Auflösungen genügend Daten anzufordern.
Der Nehalem hingegen womöglich mit dem QuickPath-Interconnect aber hingegen kann diesen fehlenden L2-Cache ungenügend kompensieren.
Für mich hört sich das stimmig an. Ein Indiz für die These ist, dass SMT bei vielen Spielen kaum Nutzen bringt, bzw. sogar schädlich ist. SMT-Technik hat den Nachteil dass der L2-Cache verkleinert wird, weil nun in diesem Falle für doppelt so viel Kerne Daten zwischengespeichert werden. Fragt sich nun wie man diese Behauptungen auch nachweisen kann.
MFG Bobo(2009)
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
[...]
Für mich hört sich das stimmig an. Ein Indiz für die These ist, dass SMT bei vielen Spielen kaum Nutzen bringt, bzw. sogar schädlich ist. SMT-Technik hat den Nachteil dass der L2-Cache verkleinert wird, weil nun in diesem Falle für doppelt so viel Kerne Daten zwischengespeichert werden. Fragt sich nun wie man diese Behauptungen auch nachweisen kann.
MFG Bobo(2009)
Spiele interessieren mich nicht. 64Bit Software, wissenschaftliche, mit hohem Speicherdurchsatz und Fließkommaanteil. Möglichst nur auf einer CPU - mehr Geld ist leider nicht in unseren Töpfen. Privat möchte ich auch so eine Maschine haben, um weiterarbeiten zu können, wenn ich nicht auf der Arbeit bin.
Bis heute habe ich noch keinen wirklich objektiven Testparcours AMD - Intel mit folgenden Eigenschaften gesehen:
- reine 64Bit Software (OS und Anwendung, LINPACK z.B.)
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Takt
- gleicher Speichertypus (DDR3-1066/Vollausbau)
- Speichervollausbau
Ich denke, da würden sich plötzlich so einige Wimpern zuckend nach oben bewegen ...
Es ist zwar OT, dennoch ... am liebsten würde ich AMD strafend aus dem Lande werfen für diese Katastrophe. Ich sehe, wie sich derzeit die Softwarelandschaft rapide ändert. Wir recompilieren nahezu jedes Modell auf 64Bit, patchen, lassen OpenMP-PRAGMA Anweisungen in die Software einfließen, wo es nur geht und es ungefährlich ist. Intels neuer Wurf hat allerdings Dank seiner mickrigen 1st und 2nd Level Chaches sowie der eher winzig ausgefallenen Prefetchbuffer keine guten 64Bit Abilitäten - wenn, dann durch brachiale Gewalt der anderen Einheiten. Intel hätte es besser gekonnt! Stattdessen knapp an der Schmerzgrenze ... Solange dieses verfluchte Seuchensystem Windows dominierend ist, wird dieses Ränkespiel nicht enden! Wozu echte 64Bit Fähigkeiten, wenn 90% aller PCs sowieso mit 32Bit Relikten betrieben werden?
Wan_Mateng
Admiral Special
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Speichertypus (DDR3-1066/Vollausbau)
Wie kommst du drauf das nur 12GB gehen?
Es gibt inzwischen 4GB Module hier ohne ECC
Kingston ValueRAM DIMM 4GB PC3-8500U CL7 (DDR3-1066) (KVR1066D3N7/4G)
http://geizhals.at/deutschland/a411317.html
hier 4GB mit ECC
Kingston ValueRAM DIMM 4GB PC3-8500E ECC CL7 (DDR3-1066) (KVR1066D3E7S/4G)
http://geizhals.at/deutschland/a415027.html
bzw. 24GB mit 8GB ECC Modulen
Kingston ValueRAM DIMM Kit 24GB PC3-8500R reg ECC CL7 (DDR3-1066) (KVR1066D3Q4R7SK3/24G)
http://geizhals.at/deutschland/a419647.html
Das die Verfügbarkeit ziemlich rar ist wie man auch den Links entnehmen kann, ist mir bekannt.Ich wollte nur auf diesem Wege zeigen das dies durchaus möglich ist.
mfg
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Wie ich darauf komme?
Ganz einfach. Als die Tests durchgeführt wurden, waren 4GB Module mit oder ohne ECC (UNREGISTRIERT) (noch) nicht am Markt verfügbar, also wurden seitens der Tester eben jene Tests durchgeführt.
Nur damit wir keinem Mißverständnis auflaufen: Auch die Einzelsockel-XEONs mögen kein registriertes RAM!
Und 'derzeit' ist in meinem Posting bereits enthalten. Wi dieses 'derzeit' im Detail zustande kommt, habe ich offen gelassen, im stillen Einvernehmen, man wisse ob der Umstände. Das war ein Irrtum, offenbar.
Ganz einfach. Als die Tests durchgeführt wurden, waren 4GB Module mit oder ohne ECC (UNREGISTRIERT) (noch) nicht am Markt verfügbar, also wurden seitens der Tester eben jene Tests durchgeführt.
Nur damit wir keinem Mißverständnis auflaufen: Auch die Einzelsockel-XEONs mögen kein registriertes RAM!
Und 'derzeit' ist in meinem Posting bereits enthalten. Wi dieses 'derzeit' im Detail zustande kommt, habe ich offen gelassen, im stillen Einvernehmen, man wisse ob der Umstände. Das war ein Irrtum, offenbar.
Opteron
Redaktion
☆☆☆☆☆☆
Naja, ist doch einfach zu umgehen, schreib einfach "seinerzeit" oder "zum Testzeitpunkt"Und 'derzeit' ist in meinem Posting bereits enthalten. Wi dieses 'derzeit' im Detail zustande kommt, habe ich offen gelassen, im stillen Einvernehmen, man wisse ob der Umstände. Das war ein Irrtum, offenbar.
Dann ist das klar. Bei "derzeit" denke ich auch an "genau jetzt im Moment"
An die angesprochenen Tests kann ich mich auch noch erinnern, war zum i7 Start bei der c't .. da gabs nicht mal 4GB DIMM Testmuster.
ciao
Alex
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Irgendwie ist die Logik des Beitrags zu hoch für mich, denn für mich kommt es so rüber das du über den Aufbaus des i7 schimpfst wie ein Rohrspatz und AMD ist dran schuld.Spiele interessieren mich nicht. 64Bit Software, wissenschaftliche, mit hohem Speicherdurchsatz und Fließkommaanteil. Möglichst nur auf einer CPU - mehr Geld ist leider nicht in unseren Töpfen. Privat möchte ich auch so eine Maschine haben, um weiterarbeiten zu können, wenn ich nicht auf der Arbeit bin.
Bis heute habe ich noch keinen wirklich objektiven Testparcours AMD - Intel mit folgenden Eigenschaften gesehen:
- reine 64Bit Software (OS und Anwendung, LINPACK z.B.)
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Takt
- gleicher Speichertypus (DDR3-1066/Vollausbau)
- Speichervollausbau
Ich denke, da würden sich plötzlich so einige Wimpern zuckend nach oben bewegen ...
Es ist zwar OT, dennoch ... am liebsten würde ich AMD strafend aus dem Lande werfen für diese Katastrophe. Ich sehe, wie sich derzeit die Softwarelandschaft rapide ändert. Wir recompilieren nahezu jedes Modell auf 64Bit, patchen, lassen OpenMP-PRAGMA Anweisungen in die Software einfließen, wo es nur geht und es ungefährlich ist. Intels neuer Wurf hat allerdings Dank seiner mickrigen 1st und 2nd Level Chaches sowie der eher winzig ausgefallenen Prefetchbuffer keine guten 64Bit Abilitäten - wenn, dann durch brachiale Gewalt der anderen Einheiten. Intel hätte es besser gekonnt! Stattdessen knapp an der Schmerzgrenze ... Solange dieses verfluchte Seuchensystem Windows dominierend ist, wird dieses Ränkespiel nicht enden! Wozu echte 64Bit Fähigkeiten, wenn 90% aller PCs sowieso mit 32Bit Relikten betrieben werden?
Würde man die Testbedingungen wie von dir erwünscht herstellen ist der Test aber ebenfalls Sinnfrei, denn das i7 System würde in einer ganz anderen Preisliga spielen und der Speicherausbau (ich tippe auf min. 16GB wegen der 8 virtuellen Kerne, welche beim Vollausbau notgedrungen auf 24GB anschwellen) wäre nichtmal ansatzweise vergleichbar.
mit einem Punkt habe ich ein besonders grosses Problem, nämlich mit dem Stichpunkt "- gleicher Takt".
Worauf bezieht er sich? Die Taktfrequenz des Prozessors, die Taktfrequenz des Arbeitsspeichers oder gar die der QPI/HT Verbindung? Wobei ich letzteres für sehr unwarscheinlich halte.
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Wie kommst du drauf das nur 12GB gehen?
Es gibt inzwischen 4GB Module hier ohne ECC
Kingston ValueRAM DIMM 4GB PC3-8500U CL7 (DDR3-1066) (KVR1066D3N7/4G)
http://geizhals.at/deutschland/a411317.html
hier 4GB mit ECC
Kingston ValueRAM DIMM 4GB PC3-8500E ECC CL7 (DDR3-1066) (KVR1066D3E7S/4G)
http://geizhals.at/deutschland/a415027.html
bzw. 24GB mit 8GB ECC Modulen
Kingston ValueRAM DIMM Kit 24GB PC3-8500R reg ECC CL7 (DDR3-1066) (KVR1066D3Q4R7SK3/24G)
http://geizhals.at/deutschland/a419647.html
Das die Verfügbarkeit ziemlich rar ist wie man auch den Links entnehmen kann, ist mir bekannt.Ich wollte nur auf diesem Wege zeigen das dies durchaus möglich ist.
mfg
Es ist so enorm gut möglich, dass selbst die c't bisher noch keinen kompletten 64bit spec-Test auf corei7 durchgeführt hat. Wenn die keine 4GB Module herschaffen können, dürfte es kaum jemand anderem gelingen........Dass es theoretisch solche Module gibt, ist schon klar.
.
EDIT :
.
Spiele interessieren mich nicht. 64Bit Software, wissenschaftliche, mit hohem Speicherdurchsatz und Fließkommaanteil. Möglichst nur auf einer CPU - mehr Geld ist leider nicht in unseren Töpfen. Privat möchte ich auch so eine Maschine haben, um weiterarbeiten zu können, wenn ich nicht auf der Arbeit bin.
Bis heute habe ich noch keinen wirklich objektiven Testparcours AMD - Intel mit folgenden Eigenschaften gesehen:
- reine 64Bit Software (OS und Anwendung, LINPACK z.B.)
- kein SMT, wenn Speicherausbau nicht reicht (SPECfp_rate 2006 geht nicht auf Core-i7 Boards, da derzeit nur 12GB RAM möglich, 64Bit Test verlangt aber per Kern 2GB RAM)
- gleicher Takt
- gleicher Speichertypus (DDR3-1066/Vollausbau)
- Speichervollausbau
Ich denke, da würden sich plötzlich so einige Wimpern zuckend nach oben bewegen ...
Was willst Du, solche Tests gibt es. Kauf Dir eine c't mit den ensprechenden Tests und gut is. Specfp_rate, da haben die einfach den einen Teiltest, der tatsächlich 2GB pro Kern braucht, auf 32bit kompiliert, alle anderen Tests sind als 64bit Kompilate gelaufen. Entgegen Deiner Ansichten schneidet auch i7 in 64bit nicht schlecht ab. Es gibt nach dem, was ich gesehen habe, keine 64bit Schwäche bei Nehalem.
Was genau soll der Test bei gleichem Takt? Ich verstehe den Sinn dahinter nie. Du willst eine bestimmte Leistung haben, oder? Da ist es völlig wurscht, mit welchem Takt eine bestimmte Maschine läuft. Entscheidend ist, mit wieviel Geld Du wieviel Leistung kaufen kannst und gut is......Dabei ist es sogar egal, ob das ganze unter dem Dir verhassten Windows läuft, unter Linux, Solaris oder sonstwas. Sogar die Hardware-Architektur ist egal, ob x86, x64, MIPS, Power oder sonstwas. Du meckerst ja auch in anderen threads gelegentlich, dass es alles Windows-x86-Monokultur sei beim HPC. Und wie viel Schöner es doch wäre, wenn es immer noch schöne Risc-Workstations gäbe (nebenbei: gibt es doch!). Gleichzeitig erzählst Du hier, dass das Geld nicht für mehr als single-CPU Maschinen reicht. Ohne x86-x64-Windows-Linux Einheitskost würde Euer Geld für überhaupt nichts reichen außer manuellen Rechenschiebern, schon mal ernsthaft darüber nachgedacht?
Ob das, was Du letztlich mit der Maschine machen willst, schneller auf einem i7 oder auf einem Phenom läuft, kannst nur Du beantworten, indem Du es ausprobierst. Ich denke, die Chancen stehen nicht so schlecht, dass Du für wissenschaftliche Berechnungen mit einem i7 am Ende des Tages mehr wirst rechnen können. Aber wie gesagt, letztlich muss man das für jede Anwendung ausprobieren.
Zuletzt bearbeitet:
Wan_Mateng
Admiral Special
Es ist so enorm gut möglich, dass selbst die c't bisher noch keinen kompletten 64bit spec-Test auf corei7 durchgeführt hat. Wenn die keine 4GB Module herschaffen können, dürfte es kaum jemand anderem gelingen........Dass es theoretisch solche Module gibt, ist schon klar.
Bitte folge doch einfach den Link.Solange es Händler gibt die den Speicher mit 3Tage Lieferzeit angeben dann ist das so.
c't wird solche Tests nicht auf den letzten Drücker machen sondern Wochen vorher wo es sehr wahrscheinlich den Speicher noch nicht gab. Der Speicher ist auch erst seit dem 10.03.2009 auf Geizhals gelistet was natürlich noch lange nicht heißt das dieser dann auch käuflich erwebbar war.
Zuletzt bearbeitet:
Hotstepper
Vice Admiral Special
- Mitglied seit
- 12.04.2005
- Beiträge
- 831
- Renomée
- 117
Also ganz ehrlich, ich finde die ganze Diskussion vollkommen Hanebüchen!
Bei Spielen ist der Core i7 920 etwa gleichschnell
Beim Renderjobs ist er teilweise deutlich schneller wenn man sich die Prozentzahlen anschaut.
Wir haben uns grad eine neue Render Workstation mit i7 920 neben unseren bewährten Phenom II 940 gestellt.
Tatsächlich ist er knapp 20% schneller bei deutlich höherem Anschaffungspreis (Board, DDR3).
Das Resultat ist jetzt das der i7 920 anstatt 60min für den Job der Woche nur noch sensationelle 51min braucht.
Soviel sind dann knappe 20% in der Realität.
Es macht also aus meinen Augen noch nichtmal dann Sinn den Aufpreis für den i7 zu bezahlen wenn er in seiner Paradedisziplin arbeitet.
Bei Spielen ist der Core i7 920 etwa gleichschnell
Beim Renderjobs ist er teilweise deutlich schneller wenn man sich die Prozentzahlen anschaut.
Wir haben uns grad eine neue Render Workstation mit i7 920 neben unseren bewährten Phenom II 940 gestellt.
Tatsächlich ist er knapp 20% schneller bei deutlich höherem Anschaffungspreis (Board, DDR3).
Das Resultat ist jetzt das der i7 920 anstatt 60min für den Job der Woche nur noch sensationelle 51min braucht.
Soviel sind dann knappe 20% in der Realität.
Es macht also aus meinen Augen noch nichtmal dann Sinn den Aufpreis für den i7 zu bezahlen wenn er in seiner Paradedisziplin arbeitet.
Wan_Mateng
Admiral Special
Wir haben uns grad eine neue Render Workstation mit i7 920 neben unseren bewährten Phenom II 940 gestellt.
Tatsächlich ist er knapp 20% schneller bei deutlich höherem Anschaffungspreis (Board, DDR3).
Das Resultat ist jetzt das der i7 920 anstatt 60min für den Job der Woche nur noch sensationelle 51min braucht.
Soviel sind dann knappe 20% in der Realität.
Es macht also aus meinen Augen noch nichtmal dann Sinn den Aufpreis für den i7 zu bezahlen wenn er in seiner Paradedisziplin arbeitet.
Der Sinn wird sich dir erschließen wenn du das ganze auf das Jahr mal hochrechnen tust. Stark vereinfacht ausgedrückt du sparst 468Minuten was abgerundet 9 Projekte der Woche sind. Was das heißt brauch ich dir nicht sagen.
mfg
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Eine meiner letzten 'Anwendungen' lief 90 Tage, bis Ergebnisse vorlagen. In dieser Zeit bangt man, ob denn USV und Rechner 'durchhalten'. Wie so oft in unserer rastlosen Zeit wird weniger nachgedacht und gleich ausprobiert - so sind dann auch viele Modelle und deren Parameter (nicht ganz) Schüsse ins Blaue. Wenn mir 20% dieser Zeit erspart bliebe, sind das 18 Tage! Und ich wage zu behaupten, daß dies eine gewisse Relevanz hat.
Schon in einem halben Jahr wird ein Großteil der Compiler und Software mit dem Core-i7 gut umzugehen wissen und dann werden die Leistungsabstände zum Phenom II noch ein wenig weiter gedehnt - bei Vergleich beider jetzt verwendeter Architekturen.
Schon in einem halben Jahr wird ein Großteil der Compiler und Software mit dem Core-i7 gut umzugehen wissen und dann werden die Leistungsabstände zum Phenom II noch ein wenig weiter gedehnt - bei Vergleich beider jetzt verwendeter Architekturen.
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Eine meiner letzten 'Anwendungen' lief 90 Tage, bis Ergebnisse vorlagen. In dieser Zeit bangt man, ob denn USV und Rechner 'durchhalten'. Wie so oft in unserer rastlosen Zeit wird weniger nachgedacht und gleich ausprobiert - so sind dann auch viele Modelle und deren Parameter (nicht ganz) Schüsse ins Blaue. Wenn mir 20% dieser Zeit erspart bliebe, sind das 18 Tage! Und ich wage zu behaupten, daß dies eine gewisse Relevanz hat.
Schon in einem halben Jahr wird ein Großteil der Compiler und Software mit dem Core-i7 gut umzugehen wissen und dann werden die Leistungsabstände zum Phenom II noch ein wenig weiter gedehnt - bei Vergleich beider jetzt verwendeter Architekturen.
In dem Szenario lohnt ja sogar das Topmodell 965. Ob nun 250€ oder 1000€ für die CPU ist doch total latte, wenn man mehrere Tage Warte- und Arbeitszeit spart. Außer Du bist öffentlicher Angestellter, der unter dem Motto:"den müssen wir eh bezahlen, egal, wie produktiv er ist" durchgeht, dann sind die Betrachtungen natürlich etwas anders. Aber ansonsten lohnt hier ja offensichtlich auch ein Nehalem-EP, sofern die Arbeit beliebig skaliert.......
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
gings net um das abloosen der i7 beim zocken?
was sagt nvidia zB?...
http://www.pcgameshardware.de/aid,6...-ist-Geldverschwendung-fuer-Spieler/CPU/News/
oh, die finden den i7 total überflüsig
da geht einfach nix drüber, es sei denn mich will jemand zum lachen bringen....
http://geizhals.at/deutschland/a389214.html
was sagt nvidia zB?...
http://www.pcgameshardware.de/aid,6...-ist-Geldverschwendung-fuer-Spieler/CPU/News/
oh, die finden den i7 total überflüsig
da geht einfach nix drüber, es sei denn mich will jemand zum lachen bringen....
http://geizhals.at/deutschland/a389214.html
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Keine Frage, Intel hat schon früh verstanden mit den richtigen Tunig-Tools und wichtigen Systemintegratoren ihre Prozessoren ins rechte Licht zu setzen.
Aber AMD ist seit einiger Zeit nicht tatenlos geblieben. Hochinteressant ist unter anderem ASF (Advanced Synchronization Facility). Das experimentelle Tool steht für folgendes:
Aber auch wie Strings in AMDs Sinne genutzt werden kann man dort erhaschen: "Faster String Operations".
In Videobereich hat AMD wohl Colfax promotet. Diese bauen Videoschnitt-PCs vor allem mit Sonys Vega-Software (Vegas Pro 9). Die Colfax Digistation CX980 wird zur Zeit ganz besonders beworben.
Ich würde zu gerne wissen, in wie weit dann die Produktivität zunimmt, wenn die Software tatsächlich optimiert wird auf die AMD-Prozessoren - Traditionell ist der Support bei Intel für Software immer besser. Kein Wunder, wenn in etwa 6000 Menschen* bei Intel für diesen Fremd-Support bei Sun, HP, IBM, Dell und wer weiss sonst wo, an den vielen Stellschrauben drehen.
MFG Bobo(2009)
* = Zahlen von Intel-Salesman beim Sun-Intel Event zur Einführung der Nehalems mit den Xeons der 5500- und 3500-Serien, April 2009.
Aber AMD ist seit einiger Zeit nicht tatenlos geblieben. Hochinteressant ist unter anderem ASF (Advanced Synchronization Facility). Das experimentelle Tool steht für folgendes:
Also auch AMD schaut nach Anwendungen, die Multithreaded sind . Sie nehmen die Herausforderung mit dem Nehalem und der SMT-Technik an.... The AMD Advanced Synchronization Facility (ASF) is an experimental instruction set extension for the AMD64 architecture that would provide new capabilities for efficient synchronization of access to shared data in highly multithreaded applications as well as operating system kernels.
ASF provides a means for software to inspect and update multiple shared memory locations atomically without having to rely on locks for mutual exclusion. It is intended to facilitate lock-free programming for highly concurrent shared data structures, allowing more complex and higher performance manipulation of such structures than is practical with traditional techniques based on compare-swap instructions such as CMPXCHG16B.
ASF code can also interoperate with lock-based code, or with Software Transactional Memory. ...
Aber auch wie Strings in AMDs Sinne genutzt werden kann man dort erhaschen: "Faster String Operations".
In Videobereich hat AMD wohl Colfax promotet. Diese bauen Videoschnitt-PCs vor allem mit Sonys Vega-Software (Vegas Pro 9). Die Colfax Digistation CX980 wird zur Zeit ganz besonders beworben.
Ich würde zu gerne wissen, in wie weit dann die Produktivität zunimmt, wenn die Software tatsächlich optimiert wird auf die AMD-Prozessoren - Traditionell ist der Support bei Intel für Software immer besser. Kein Wunder, wenn in etwa 6000 Menschen* bei Intel für diesen Fremd-Support bei Sun, HP, IBM, Dell und wer weiss sonst wo, an den vielen Stellschrauben drehen.
MFG Bobo(2009)
* = Zahlen von Intel-Salesman beim Sun-Intel Event zur Einführung der Nehalems mit den Xeons der 5500- und 3500-Serien, April 2009.
Zuletzt bearbeitet:
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Naja, das munkelt man ja schon immer, das der kleine L2 zu wenig für Spiele ist.Du bringst da etwas zur Sprache, was durchaus jetzt in der Übergangsphase zwischen Penryn und Nehalem paradoxe Benchmarks erklären könnte.
Ich habe keine Ahnung in wie weit große Bildauflösungen auch mehr Traffic pro Frame auf den Prozessor durchschlagen. Beim Nehalem ist der L2-Cache tatsächlich gehörig eingedampft und der L3-Cache ist langsamer als der L2-Cache.
Ich spekuliere mal, dass in diesem Fall womöglich der Shanghai-Phenom mit dem etwas größerem L2-Cache gegenüber dem Nehalem irgendwann aufschliesst und möglicherweise der HyperTransport Link gut genug ist bei höheren Auflösungen genügend Daten anzufordern.
Der Nehalem hingegen womöglich mit dem QuickPath-Interconnect aber hingegen kann diesen fehlenden L2-Cache ungenügend kompensieren.
Für mich hört sich das stimmig an. Ein Indiz für die These ist, dass SMT bei vielen Spielen kaum Nutzen bringt, bzw. sogar schädlich ist. SMT-Technik hat den Nachteil dass der L2-Cache verkleinert wird, weil nun in diesem Falle für doppelt so viel Kerne Daten zwischengespeichert werden. Fragt sich nun wie man diese Behauptungen auch nachweisen kann.
MFG Bobo(2009)
Ich sehe den jetzigen Core i7 eh nur als Willamette an.
Außerdem kennen wir doch die Programmierkünste der meisten Spielsoftwareschmieden zu genüge, es wird doch nichts ernsthaft unterstützt was Leistung bringen könnte weil es mehr mühe machen würde, der Spieler kann ja wieder was neues kaufen.
Genauso sieht es bei Mehrkern oder 64 Bit Patches aus, häufig genug garnix gebracht bis eher nachteiliges.
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
In dem Szenario lohnt ja sogar das Topmodell 965. Ob nun 250€ oder 1000€ für die CPU ist doch total latte, wenn man mehrere Tage Warte- und Arbeitszeit spart. Außer Du bist öffentlicher Angestellter, der unter dem Motto:"den müssen wir eh bezahlen, egal, wie produktiv er ist" durchgeht, dann sind die Betrachtungen natürlich etwas anders. Aber ansonsten lohnt hier ja offensichtlich auch ein Nehalem-EP, sofern die Arbeit beliebig skaliert.......
Soetwas wird man der Verwaltung gegenüber nie durchsetzen können! Die Verwaltungsangestellten haben schon Probleme, wenn der Begriff 'Skalierbarkeit' auftaucht. Geldmittel sind knapp und an den Tröpfen hangen meist noch viele andere arme 'Schweine'. Die Informatiker, die hauptberuflich eigentlich solche Dienstleistungen und Abwägungen erledigen sollten, schaukeln ihre eier oder sind zu dämlich, um diesen Aspekt rational betrachten zu können. Ich habe mich diesbezüglich schon zu lange aufgeregt.
Ideal ist in solchen Fällen in der Tat eine leicht zentralisierte Rechnerarchitektur - aber die meisten meiner Kollegen können ihren Horizont nicht über das Windows-Fenster erweitern und/oder sind nicht bereit Kompromisse einzugehen. So verteilt sich die Leistung meist 1/n, obwohl die Bedürfnisse eine ganz andere Wichtung haben.
Hotstepper
Vice Admiral Special
- Mitglied seit
- 12.04.2005
- Beiträge
- 831
- Renomée
- 117
In der Realität liegt ihr alle aber wiederum daneben, weil Tagsüber an dem Ding nur gebastelt wird, und nachts als Batch gerechnet wird. etwa 3-5 Renderjobs die Nacht, und zumindest in allen Szenarien die ich kenne läuft das immer so!
Das ganze hat zur Folge das morgends wenn man ins Lab kommt beide fertig sind. sowohl i7 als auch PII
Das ganze hat zur Folge das morgends wenn man ins Lab kommt beide fertig sind. sowohl i7 als auch PII
THG hat sich die Sache auch mal angeschaut:
http://www.tomshardware.com/reviews/geforce-gtx-280,2156.html
Also wenn das NVIDIA nicht verbockt hat......
http://www.tomshardware.com/reviews/geforce-gtx-280,2156.html
Also wenn das NVIDIA nicht verbockt hat......
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
noch ein neues beispiel.
http://www.pcgameshardware.de/aid,6...arten-und-CPU-Benchmarks/Strategiespiel/Test/
in alter 17er auflösung führt der i7 965, in heutiger 22er mit aa gibt er wieder auf.
auf die frage im forum, ob werte vertauscht wurden, die antwort von pcgh_marc
Zitat:
"Kein Tippfehler, der i7 knickt einen Tick ein [3 Durchläufe gemittelt]."
spricht bände....
http://www.pcgameshardware.de/aid,6...arten-und-CPU-Benchmarks/Strategiespiel/Test/
in alter 17er auflösung führt der i7 965, in heutiger 22er mit aa gibt er wieder auf.
auf die frage im forum, ob werte vertauscht wurden, die antwort von pcgh_marc
Zitat:
"Kein Tippfehler, der i7 knickt einen Tick ein [3 Durchläufe gemittelt]."
spricht bände....
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.418
- Renomée
- 785
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
noch ein neues beispiel.
http://www.pcgameshardware.de/aid,6...arten-und-CPU-Benchmarks/Strategiespiel/Test/
in alter 17er auflösung führt der i7 965, in heutiger 22er mit aa gibt er wieder auf.
auf die frage im forum, ob werte vertauscht wurden, die antwort von pcgh_marc
Zitat:
"Kein Tippfehler, der i7 knickt einen Tick ein [3 Durchläufe gemittelt]."
spricht bände....
Also wenn du das aufgeben nennst.
Immer noch weitaus schneller als der Phenom oder der C2Q.
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Aber nicht in 1600er Auflösung.
Aber nicht in 1600er Auflösung.
Jau! 1 FPS Rückstand in einem GPU-Limitierten Szenario - Absolut unspielbar! *gähn*
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Naja, zum Yorkfield ist es etwas mehr.
Jedenfalls nicht dolle wenn man sich den Preis der Cpu ansieht.
Na egal, es ist keine Spiele Cpu, ganz einfach.
Oder einfacher gesagt.
Die Spiele sind immer noch nicht vernünftig Mehrkernprogrammiert.
Jedenfalls nicht dolle wenn man sich den Preis der Cpu ansieht.
Na egal, es ist keine Spiele Cpu, ganz einfach.
Oder einfacher gesagt.
Die Spiele sind immer noch nicht vernünftig Mehrkernprogrammiert.
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 47K
- Antworten
- 680
- Aufrufe
- 88K
- Antworten
- 348
- Aufrufe
- 85K