App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Shanghai Performance-Werte durchgesickert
- Ersteller Nero24
- Erstellt am
Sun und Intel haben am vergangenen Wochenende im Rahmen einer Präsentation ein paar pikante Zahlen <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">veröffentlicht</A>. Nicht nur, dass SPEC-Werte des eigenen Nehalem-Prozessors gezeigt wurden, der erst Ende des Jahres als Nachfolger der Penryn-Familie auf den Markt kommen soll, es wurden auch Benchmarks des für Ende 2008 anstehenden 45 nm K10 Prozessors mit <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Codenamen Shanghai</a> gezeigt. Woher die Zahlen stammen, ob Intel sie geschätzt hat oder Sun als langjähriger AMD-Partner bereits frühe Samples besitzt, ist nicht bekannt.
Die veröffentlichten Zahlen, die natürlich mit höchster Vorsicht zu behandeln sind, beinhalten gute und schlechte Nachrichten für AMD, sollten sie sich als authentisch erweisen. So soll das verwendete Shanghai-System, ein Server mit zwei CPU-Sockeln und 8 Kernen, taktfrequenzbereinigt 29 Prozent (CPUfp_rate_base2006) bzw. 11 Prozent (CPUint_rate_base2006) mehr Leistung bringen, als ein aktueller Opteron auf Barcelona-Basis. AMD hatte ja angekündigt, dass der Shanghai nicht nur einen Die-Shrink von 65 nm auf 45 nm darstellen wird, sondern auch über 6 MB statt 2 MB L3-Cache verfügen und "IPC-Enhancements" enthalten wird. Obendrein ist das aufgeführte System mit 2,8 GHz statt mit 2,3 GHz getaktet, sodass die effektiven Performance-Werte aufgrund der höheren Taktfrequenzen prozentual deutlich stärker steigen werden.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1833"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1833"></a><br><font size="1">Bildquelle: <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">ZDNet</A></font></center>
So weit, so gut für AMD. Allerdings zeigte das Diagramm wie erwähnt auch die Werte eines Nehalem-Systems (CPU-Codename Gainestown), leider ohne weitere Daten wie Taktfrequenz oder RAM-Art. Auch dieses System verfügte über 2 Prozessoren und damit 8 Kerne; da der Gainestone aber wie sein nicht leiblicher Großvater Pentium 4 wieder über <a href="http://www.planet3dnow.de/artikel/diverses/doping/14.shtml">SMT alias HyperThreading</a> verfügen wird, stehen den Tests satte 16 virtuelle Kerne zur Verfügung. Während AMDs Shanghai die alten Xeons selbst mit höherer Taktfrequenz im Griff hat, sind die Nehalem-Werte aus einer anderen Welt. Dabei darf natürlich nicht übersehen werden, dass die SPEC-Benchmarks sehr wohlwollend auf mehr Kerne (gleich ob echte oder virtuelle) reagieren. Ob der Nehalem in Alltagsanwendungen ebenfalls so deutlich in Front sein wird, sehen wir Ende des Jahres - sofern AMD und Intel ihre <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Zeitpläne</a> einhalten können.
Die veröffentlichten Zahlen, die natürlich mit höchster Vorsicht zu behandeln sind, beinhalten gute und schlechte Nachrichten für AMD, sollten sie sich als authentisch erweisen. So soll das verwendete Shanghai-System, ein Server mit zwei CPU-Sockeln und 8 Kernen, taktfrequenzbereinigt 29 Prozent (CPUfp_rate_base2006) bzw. 11 Prozent (CPUint_rate_base2006) mehr Leistung bringen, als ein aktueller Opteron auf Barcelona-Basis. AMD hatte ja angekündigt, dass der Shanghai nicht nur einen Die-Shrink von 65 nm auf 45 nm darstellen wird, sondern auch über 6 MB statt 2 MB L3-Cache verfügen und "IPC-Enhancements" enthalten wird. Obendrein ist das aufgeführte System mit 2,8 GHz statt mit 2,3 GHz getaktet, sodass die effektiven Performance-Werte aufgrund der höheren Taktfrequenzen prozentual deutlich stärker steigen werden.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1833"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1833"></a><br><font size="1">Bildquelle: <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">ZDNet</A></font></center>
So weit, so gut für AMD. Allerdings zeigte das Diagramm wie erwähnt auch die Werte eines Nehalem-Systems (CPU-Codename Gainestown), leider ohne weitere Daten wie Taktfrequenz oder RAM-Art. Auch dieses System verfügte über 2 Prozessoren und damit 8 Kerne; da der Gainestone aber wie sein nicht leiblicher Großvater Pentium 4 wieder über <a href="http://www.planet3dnow.de/artikel/diverses/doping/14.shtml">SMT alias HyperThreading</a> verfügen wird, stehen den Tests satte 16 virtuelle Kerne zur Verfügung. Während AMDs Shanghai die alten Xeons selbst mit höherer Taktfrequenz im Griff hat, sind die Nehalem-Werte aus einer anderen Welt. Dabei darf natürlich nicht übersehen werden, dass die SPEC-Benchmarks sehr wohlwollend auf mehr Kerne (gleich ob echte oder virtuelle) reagieren. Ob der Nehalem in Alltagsanwendungen ebenfalls so deutlich in Front sein wird, sehen wir Ende des Jahres - sofern AMD und Intel ihre <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Zeitpläne</a> einhalten können.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Hauptsache Shanghai bringt mehr Leistung und ermöglicht höhere Taktraten. Alles andere wird man sehen, wenn Nehalem kommt.
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
Hmmm nenn mich spitzfindig, aber ich würde in der Überschrift anstatt "Werte" Schätzung schreiben. Werte hört sich nach "gemessen" an, was aber nicht gemacht wurde.
Intel selbst schreibt im zugrundeliegenden PDF "Projections":
Und ich frag mich ehrlich gesagt, wie Intel das genau meint, ist da wirklich immer ein Wertepaar (INT/FP) jeweils für 2 CPUs (INTEL/AMD) gültig ?
ciao
Alex
Intel selbst schreibt im zugrundeliegenden PDF "Projections":
Und ich frag mich ehrlich gesagt, wie Intel das genau meint, ist da wirklich immer ein Wertepaar (INT/FP) jeweils für 2 CPUs (INTEL/AMD) gültig ?
ciao
Alex
mmoses
Admiral Special
- Mitglied seit
- 20.10.2006
- Beiträge
- 1.899
- Renomée
- 43
- Standort
- Bembeltown
- Mein Laptop
- Lenovo Thinkpad Edge T450
- Prozessor
- AMD Ryzen5 - 1600
- Mainboard
- MSI B350 PC MATE
- Kühlung
- Original Bex Kühler
- Speicher
- 2 x ADATA DIMM 8 GB DDR4-2400
- Grafikprozessor
- Asus Radeon R7 250X
- Display
- 27" iiyama ProLite B2783QSU
- SSD
- Samsung SSD 840PRO 256GB
- HDD
- WD WD20EZRZ 2 TB
- Optisches Laufwerk
- BluRayBrenner PIONEER BDR-209DBK SATA
- Soundkarte
- onboard
- Gehäuse
- Enermax Chakra BS 25cm Fan ATX
- Netzteil
- Enermax EPR385AWT Pro82+ 385W ATX23
- Betriebssystem
- 64-Bit Linux Mint 19.2
- Webbrowser
- Frickelfuchs/opera
Sun und Intel haben am vergangenen Wochenende im Rahmen einer Präsentation ein paar pikante Zahlen <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">veröffentlicht</A>. Nicht nur, dass SPEC-Werte des eigenen Nehalem-Prozessors gezeigt wurden, der erst Ende des Jahres als Nachfolger der Penryn-Familie auf den Markt kommen soll, es wurden auch Benchmarks des für Ende 2008 anstehenden 45 nm K10 Prozessors mit <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Codenamen Shanghai</a> gezeigt. Woher die Zahlen stammen, ob Intel sie geschätzt hat oder Sun als langjähriger AMD-Partner bereits frühe Samples besitzt, ist nicht bekannt.
Ob der Nehalem in Alltagsanwendungen ebenfalls so deutlich in Front sein wird, sehen wir Ende des Jahres - sofern AMD und Intel ihre <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Zeitpläne</a> einhalten können.
Pffffhhhhh ......... klassische SHP ´s schon wieder .....erinnert doch ein wenig an: "der K10 hat dreifache IPC-Leistung wie der K8, kommt im September 07 mit 2,6 und noch vor Weihnachten mit 3Ghz und fegt alles weg blablablablaaa........."
So lang isses doch gar nicht mehr hin , wartet ein wenig und stürtzt euch ins reele Silizium....
Mmoe
rkinet
Grand Admiral Special
Genau.Hauptsache Shanghai bringt mehr Leistung und ermöglicht höhere Taktraten. Alles andere wird man sehen, wenn Nehalem kommt.
Und das Diagramm unter Berücksichtung von ca- -40% TDP beim SOI-45nm Prozess (identisch zu http://arstechnica.com/news.ars/post/20080207-ibm-shrinks-cell-to-45nm-cheaper-ps3s-will-follow.html ) ergibt höheren Takt bei rechnerisch reduzierter TDP.
Die verbesserte IPC läßt auch indirekt vermuten, dass der Barcelona nach dem Motto 'Hauptsache er läuft' raus kam, wobei der TLB-Bug ja ein anderes Problem ist.
Die gewaltige Leistung des Nehalem ist schwer einzuschätzen da der Realtakt nicht angegeben ist. Jener dürfte aber weder die 3 GHz überschritten haben, nur irgendwo stark gedrosselt (2 GHz ? ) vorgelegen haben.
Eine doppelte Anzahl an Cores (selbst nur virtuell) bei 4-fach superskalarer Architektur erweckt viel bisher freie CPU-Kapazität zum Leben.
Interessant, dass vs. Conroe die FPU-Leistung so enorm ansteigt. Aber da hat Intel ja schon Penryn-Benchmarks mit hohen Werten gezeigt, der Zuwachs wäre dann nicht mehr so hoch vs. Penryn und passend für HT-Nutzung der SSE-Unit.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.033
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Also ich halte davon gar nichts, das sagt doch überhaupt nichts aus. Erstens ist es aus keiner objektiven Quelle, zweitens sind die Chips alle noch nicht da, so daß gar nicht klar ist, welcher Chip wann gegen welchen anderen antreten wird. Da kann man genauso eine schöne Grafik darüber malen, welche Lottozahlen wohl am nächsten Samstag am wahrscheinlichsten drankommen.
Wenn ich das ultrakleingedruckte auf diesem Sheet lese:
http://www.bilder-space.de/upload/Rduh3uobZsWhqXp.JPG
...besitzt Intel scheinbar eine Art "architecture simulator", mit dem sie grob die Performance dieser noch nicht erschienenen Chips hochrechnen können: "Results were derived using simulations run on an architecture-simulator or model"
Demnach wohl nicht leaked by Sun
http://www.bilder-space.de/upload/Rduh3uobZsWhqXp.JPG
...besitzt Intel scheinbar eine Art "architecture simulator", mit dem sie grob die Performance dieser noch nicht erschienenen Chips hochrechnen können: "Results were derived using simulations run on an architecture-simulator or model"
Demnach wohl nicht leaked by Sun
Opteron
Redaktion
☆☆☆☆☆☆
Jein, die Folie war halt in ne Sun pdf drin (mittlerweile natürlich vom Server genommen ^^).Demnach wohl nicht leaked by Sun
Mehr oder minder sind das halt die Zahlen, mit denen Intel selber rechnet. Aber gemessene Werte sind das halt nicht.
Die Diskussion dazu ist übrigends bei aceshardware:
http://aceshardware.freeforums.org/sun-intel-slides-have-nehalem-performance-projections-t385.html
Bei uns gibs/gabs bereits auch was zu dem Thema:
http://www.planet3dnow.de/vbulletin/showthread.php?t=319384&page=8
ciao
Alex
Patrick.LaHaye
Commander
- Mitglied seit
- 13.02.2008
- Beiträge
- 180
- Renomée
- 12
Ehrlich gesagt glaube ich nicht mehr, dass AMD noch die Kurve bekommen wird - nicht mehr mit dem K10-Kern. Hoffentlich wird der Sledgehammer (komplett neue Architektur) nächstes Jahr was.
Grundsätzlich muss ich aber sagen, dass es mich stört, dass wir immer noch auf dieser x86-Scheiße hängen. Wäre eine einfachere ISA-Architektur wie die die des PPCs verbreitet, dann würden es auch kleine Konkurrenten schaffen performante CPUs zu designen und die dann fremd-fertigen zu lassen. Bei den x86ern ist der Aufwand für eine performante CPU jedoch ausufernd. x86 bietet haufenweise Stolperfallen die es sehr schwierig machen eine konkurrenzfähige CPU zu designen; das komplexe Instruktions-Layout das die Decoder wer weiß wie fett macht, die Kohärenz zwischen Code- und Daten- Caches, der ganze Protectedmode-Scheiß mit seinen Segmenten, komplett schwachsinnigen Interupt- und Task-Gates und wer weiß wie komplexer Systemprogrammierung (schon mal das IA-32 System Programming Guide gesehen ...), dass die Architektur keine relaxed Memory-Consistency kennt und was weiß ich. Der TLB-Fehler z.B. wäre bei einer Architketur mit relaxed Consistency garnicht möglich weil die Cache-Kohärenz der PTE-Bits für accessed und modified explizit durch das OS explizit erzwungen werden muss.
Diese Probleme machen es auch schwierig eine x86-CPU auf einer "RISC"-CPU (RISC hat hier eher die Bedeutung des einfachreren ISA-Modells, Memory- und Systemprogrammieungs-Modells) performant zu emulieren. Ich warte noch auf den Tag wo es jemandem gelingt mit etwas Hirnschmalz das dennoch auf die Reihe zu bekommen damit ein abwärs-kompatibler Weg weg von x86 möglich ist; Transmeta hat's nicht gepackt obwohl die schon gezeigt haben in welche Richtung der Weg gehen könnte.
Als Programmierer stört mich x86 ehrlich gesagt nicht; die Performance ist gut und selbst in Asm sind x86er erträglich zu programmieren - wenn man überhaupt noch Asm programmiert. Aber wenn man den gleichen Aufwand den man in die Entwicklung einer x86-CPU steckt in eine "RISC"-CPU steckt, dann wäre die Performance noch ein Stück höher, die CPUs bzgl. der Die-Größe kleiner und die Konkurrenz unter den Herstellern größer.
Grundsätzlich muss ich aber sagen, dass es mich stört, dass wir immer noch auf dieser x86-Scheiße hängen. Wäre eine einfachere ISA-Architektur wie die die des PPCs verbreitet, dann würden es auch kleine Konkurrenten schaffen performante CPUs zu designen und die dann fremd-fertigen zu lassen. Bei den x86ern ist der Aufwand für eine performante CPU jedoch ausufernd. x86 bietet haufenweise Stolperfallen die es sehr schwierig machen eine konkurrenzfähige CPU zu designen; das komplexe Instruktions-Layout das die Decoder wer weiß wie fett macht, die Kohärenz zwischen Code- und Daten- Caches, der ganze Protectedmode-Scheiß mit seinen Segmenten, komplett schwachsinnigen Interupt- und Task-Gates und wer weiß wie komplexer Systemprogrammierung (schon mal das IA-32 System Programming Guide gesehen ...), dass die Architektur keine relaxed Memory-Consistency kennt und was weiß ich. Der TLB-Fehler z.B. wäre bei einer Architketur mit relaxed Consistency garnicht möglich weil die Cache-Kohärenz der PTE-Bits für accessed und modified explizit durch das OS explizit erzwungen werden muss.
Diese Probleme machen es auch schwierig eine x86-CPU auf einer "RISC"-CPU (RISC hat hier eher die Bedeutung des einfachreren ISA-Modells, Memory- und Systemprogrammieungs-Modells) performant zu emulieren. Ich warte noch auf den Tag wo es jemandem gelingt mit etwas Hirnschmalz das dennoch auf die Reihe zu bekommen damit ein abwärs-kompatibler Weg weg von x86 möglich ist; Transmeta hat's nicht gepackt obwohl die schon gezeigt haben in welche Richtung der Weg gehen könnte.
Als Programmierer stört mich x86 ehrlich gesagt nicht; die Performance ist gut und selbst in Asm sind x86er erträglich zu programmieren - wenn man überhaupt noch Asm programmiert. Aber wenn man den gleichen Aufwand den man in die Entwicklung einer x86-CPU steckt in eine "RISC"-CPU steckt, dann wäre die Performance noch ein Stück höher, die CPUs bzgl. der Die-Größe kleiner und die Konkurrenz unter den Herstellern größer.
Zuletzt bearbeitet:
Sledgehammer war der erste K8 Opteron im Jahr 2003 Ich denke Du meinst den Bulldozer (K11) bzw. Sandtiger.Hoffentlich wird der Sledgehammer (komplett neue Architektur) nächstes Jahr was.
Opteron
Redaktion
☆☆☆☆☆☆
Jo wozu zum Bulldozer zu sagen ist, dass der von der Roadmap für 2009 verschwunden ist ... hatte ich zwischendurch (auch) vergessen ... Für 2009 stand auf dem letzten Dezemberplan nur Montreal (Dual Die Shanghai, bzw. 8 Kern K10) an.Sledgehammer war der erste K8 Opteron im Jahr 2003 Ich denke Du meinst den Bulldozer (K11) bzw. Sandtiger.
ciao
Alex
Patrick.LaHaye
Commander
- Mitglied seit
- 13.02.2008
- Beiträge
- 180
- Renomée
- 12
Ja, den meine ich! Schade, dass es noch keine Informationen zu den grundsätzlichen technischen Daten gibt.Sledgehammer war der erste K8 Opteron im Jahr 2003 Ich denke Du meinst den Bulldozer (K11) bzw. Sandtiger.
Opteron
Redaktion
☆☆☆☆☆☆
[Sarkasmus]Ja, den meine ich! Schade, dass es noch keine Informationen zu den grundsätzlichen technischen Daten gibt.
Wahrscheinlich hat nichmal AMD Daten dazu .. außer den paar Marketing Folien von Mitte 07.
[/Sarkasmus]
ciao
Alex
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Schnee von gestern - im Sinne des Wortes.
In den 'pikanten Veröffentlichungen' steht, daß es sich hierbei um Schätzungen der in den SPEC-Charts veröffentlichten Werte handelt. Wie gut informierte HPC-Nutzer wissen, sind die Barcelonas seit geraumer Zeit 'RAUS' aus dieser Liste. Lediglich frühe Werte des SPECfp_rate 2006 und SPECint_rate 2006 kann man hier und da noch finden. Und hier zeigte sich, daß Barcelona und Xeon (53XX) bei gleichem Takt und 4 Kernen gleichauf lagen, bei 8 Kernen konnte im Fließkommabereich der Barcelona, im Integer die Intel CPU punkten. Auch AMD hat kurz vor Einführung des Barcelona aberwitzige 'Schätzwerte' veröffentlicht, die ob der Tatsachen dann Lügen gestraft wurden.
Weiter möchte ich zum Kommentar der Skalierfreude der SPEC-Suite einmal fragen, was es denn besseres gibt als eine skalierende Testsuite? Wenn man sich natürlich auf ein Betriebssystem beschränkt, daß naturgemäß schon Schwierigkeiten damit hat, 4 Kerne richtig auszulasten, darf man keine Prediktionen erwarten!
.
EDIT :
.
... trotz des Sarkasmus schätze ich einen Gehalt Wahrheit an dieser Aussage. Das PR-Getöse im letzten Jahr um K8L alias K10 ist noch immer im Gedächtnis wach.
Mich wundert aber, daß SUN als langjähriger AMD Partner mit dieser Pikanterie nicht gerade für AMD wirbt. Gerade die neu geschmiedete Intel-SUN-Allianz läßt Gerüchte zu, die vielleicht vermuten lassen, daß SUN mehr weiß als der Rest der Welt. Löst man sich auf diese Weise sanft von AMD und zieht Kunden hinüber zu Intel-Plattformen?
Daß Gainstown einen wirklichen Leistungsschub bringen wird, war genauen Beobachtern sowieso klar - denke ich. Intel hat stetig an der IPC-Leistung der C2D Architektur gefeilt und hat derweil eine interessante Mikroarchitektur, die leider massiv durch den archaischen FSB gebremst wird. Ohne diese Fußfessel FSB und mit einem folgerichtigen nativen Quad-Core-Design düfte mit den neuen Prozessoren Furore sicher sein.
Shanghai wird vermutlich nicht viel Spektakuläres liefern, außer die notwendigen Progressionen hinsichtlich Cachegröße und eventuell von drei- auf vierfach skalar ... So recht will sich beim ir auch keine Hoffnung breit machen, daß es besser werden könnte, die Spezial-FPU-Partner, die angeblich fü¶ Zusatzleistung sorgen sollten, sind nicht zu sehen und zu diesem Zeitpunkt in AMD zu investieren ist nur göttlichen Ölmultis vorbehalten ...
In den 'pikanten Veröffentlichungen' steht, daß es sich hierbei um Schätzungen der in den SPEC-Charts veröffentlichten Werte handelt. Wie gut informierte HPC-Nutzer wissen, sind die Barcelonas seit geraumer Zeit 'RAUS' aus dieser Liste. Lediglich frühe Werte des SPECfp_rate 2006 und SPECint_rate 2006 kann man hier und da noch finden. Und hier zeigte sich, daß Barcelona und Xeon (53XX) bei gleichem Takt und 4 Kernen gleichauf lagen, bei 8 Kernen konnte im Fließkommabereich der Barcelona, im Integer die Intel CPU punkten. Auch AMD hat kurz vor Einführung des Barcelona aberwitzige 'Schätzwerte' veröffentlicht, die ob der Tatsachen dann Lügen gestraft wurden.
Weiter möchte ich zum Kommentar der Skalierfreude der SPEC-Suite einmal fragen, was es denn besseres gibt als eine skalierende Testsuite? Wenn man sich natürlich auf ein Betriebssystem beschränkt, daß naturgemäß schon Schwierigkeiten damit hat, 4 Kerne richtig auszulasten, darf man keine Prediktionen erwarten!
.
EDIT :
.
[Sarkasmus]
Wahrscheinlich hat nichmal AMD Daten dazu .. außer den paar Marketing Folien von Mitte 07.
[/Sarkasmus]
ciao
Alex
... trotz des Sarkasmus schätze ich einen Gehalt Wahrheit an dieser Aussage. Das PR-Getöse im letzten Jahr um K8L alias K10 ist noch immer im Gedächtnis wach.
Mich wundert aber, daß SUN als langjähriger AMD Partner mit dieser Pikanterie nicht gerade für AMD wirbt. Gerade die neu geschmiedete Intel-SUN-Allianz läßt Gerüchte zu, die vielleicht vermuten lassen, daß SUN mehr weiß als der Rest der Welt. Löst man sich auf diese Weise sanft von AMD und zieht Kunden hinüber zu Intel-Plattformen?
Daß Gainstown einen wirklichen Leistungsschub bringen wird, war genauen Beobachtern sowieso klar - denke ich. Intel hat stetig an der IPC-Leistung der C2D Architektur gefeilt und hat derweil eine interessante Mikroarchitektur, die leider massiv durch den archaischen FSB gebremst wird. Ohne diese Fußfessel FSB und mit einem folgerichtigen nativen Quad-Core-Design düfte mit den neuen Prozessoren Furore sicher sein.
Shanghai wird vermutlich nicht viel Spektakuläres liefern, außer die notwendigen Progressionen hinsichtlich Cachegröße und eventuell von drei- auf vierfach skalar ... So recht will sich beim ir auch keine Hoffnung breit machen, daß es besser werden könnte, die Spezial-FPU-Partner, die angeblich fü¶ Zusatzleistung sorgen sollten, sind nicht zu sehen und zu diesem Zeitpunkt in AMD zu investieren ist nur göttlichen Ölmultis vorbehalten ...
Das wissen nicht nur HPC-Nutzer:Wie gut informierte HPC-Nutzer wissen, sind die Barcelonas seit geraumer Zeit 'RAUS' aus dieser Liste.
SPEC löscht alle "Barcelona"-Benchmarks
Weitere SPEC Benchmarkwerte des "Barcelona" vor Löschung
Das ist ein zweischneidiges Schwert. Benchmarks, die unrealistisch freudig mit der Kern-Anzahl skalieren, sind genauso wenig alltagstauglich, wie jene, die überhaupt nicht skalieren. Wenn der Dhrystone-/Whetstone-Benchmark in diversen Testsuites behauptet, der Core 2 Quad ist 4x so schnell, wie ein Core 2 Solo gleicher Taktfrequenz, nur weil er 4x gestartet wird und im L1-Cache läuft, dann ist das genauso falsch, wie irgendein singlethreaded Test, der behauptet, die beiden wären gleich schnellWeiter möchte ich zum Kommentar der Skalierfreude der SPEC-Suite einmal fragen, was es denn besseres gibt als eine skalierende Testsuite?
Das hat mit "dem Betriebssystem", von dem Du wahrscheinlich sprichst, nur wenig zu tun, sondern mit der Anwendung. Auf dem Planet 3DNow! Webserver z.B. läuft Gentoo und die üblichen Verdächtigen (Apache, MySQL, etc.) Auch hier macht sich das Multiprocessing einerseits natürlich positiv bemerkbar, da viele Anwendungen (=processes) gleichzeitig laufen und auf die Kerne verteilt werden können, trotzdem ist bei einzelnen Anwendungen noch immer die Leistungsfähigkeit eines Kerns relevant und der bremsende Faktor, z.B. bei einer MySQL-Abfrage, wo ein Kern voll ausgelastet wird und die übrigen Däumchen drehen. Hier ist das System trotz seiner 4 Kerne mitnichten 4x so schnell wie es ein Server mit einem Kern wäre, obwohl gut skalierende Benchmarks dies womöglich behaupten.Wenn man sich natürlich auf ein Betriebssystem beschränkt, daß naturgemäß schon Schwierigkeiten damit hat, 4 Kerne richtig auszulasten, darf man keine Prediktionen erwarten!
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Das wissen nicht nur HPC-Nutzer:
SPEC löscht alle "Barcelona"-Benchmarks
Weitere SPEC Benchmarkwerte des "Barcelona" vor Löschung
... ic hwußte doch, daß die Schießhunde auf diesen Link stoßen müssen
Das ist ein zweischneidiges Schwert. Benchmarks, die unrealistisch freudig mit der Kern-Anzahl skalieren, sind genauso wenig alltagstauglich, wie jene, die überhaupt nicht skalieren. Wenn der Dhrystone-/Whetstone-Benchmark in diversen Testsuites behauptet, der Core 2 Quad ist 4x so schnell, wie ein Core 2 Solo gleicher Taktfrequenz, nur weil er 4x gestartet wird und im L1-Cache läuft, dann ist das genauso falsch, wie irgendein singlethreaded Test, der behauptet, die beiden wären gleich schnell
... ich weiß zwar nicht genau, wann Du das letzte Mal einen wirklichen Benchmark gefahren hast. Dein obiger Vergleich läßt Stagnation im Neolitikum der Prozessortechnik vermuten ... Gerade das Problem gigantomansich anmutender Caches ist mit der Suite 2000 der SPEC recht effektiv angegangen worden - über diese simple 'Lehrbuchdidaktik' ist man längst hinaus!
Das hat mit "dem Betriebssystem", von dem Du wahrscheinlich sprichst, nur wenig zu tun, sondern mit der Anwendung. Auf dem Planet 3DNow! Webserver z.B. läuft Gentoo und die üblichen Verdächtigen (Apache, MySQL, etc.) Auch hier macht sich das Multiprocessing einerseits natürlich positiv bemerkbar, da viele Anwendungen (=processes) gleichzeitig laufen und auf die Kerne verteilt werden können, trotzdem ist bei einzelnen Anwendungen noch immer die Leistungsfähigkeit eines Kerns relevant und der bremsende Faktor, z.B. bei einer MySQL-Abfrage, wo ein Kern voll ausgelastet wird und die übrigen Däumchen drehen. Hier ist das System trotz seiner 4 Kerne mitnichten 4x so schnell wie es ein Server mit einem Kern wäre, obwohl gut skalierende Benchmarks dies womöglich behaupten.
jaja ... der Kuh 'was vom Milchmachen erzählen wollen ...
Ein Benchmark ist das, was dransteht: ein Benchmark! Der Benchmark soll nach Möglichkeit die potentiellen Fähigkeiten einer Baugruppe messen und ausloten. Ohne 'Metrik' geht nichts, kein Vergleich, nichts. Wer immer noch glaubt, ein benchmark hätte etwas mit einer Anwendung der realen Welt gemein hat etwas Prinzipielles nicht verstanden. Ich schätze, die wenigsten machen (noch) diesen Fehler.
Die SPECsuite hat sich nicht umsonst zu einem Referenztest gemausert. Die Darlegung dedizierter Testergebnisse gibt potentiell die Leistungsfähigkeit in Verbindung mit entsprechender Software an. Ob die Software das am Ende nutzt oder nutzen kann, ist eine andere Sache. Im übrigen kann ich Dir aus eigener Erfahrung sagen, daß die SPEC-Werte in der Regel sehr aussagekräftig hinsichtlich der Rechenleistung in bezug auf 'RECHNEN' sind.
Wenn man natürlich Windows einsetzt und nur Binaries installieren kann, die im Rahmen einer Allgemeinverträglichkeit compiliert wurden oder einen Produktionsserver hat, sei es nun das Gefrickel von RedHat, Gentoo oder Suse oder wem auch immer, statisch, ab und an mal ein paar Updates, dann ist mir klar, daß gewisse Evolutionen Aeonen später Einzug halten (können).
Jeder 'mißt' eben in seiner Welt. Die einen in ihrer kleinen LAMP-Welt mit den üblichen Verdächtigen, andere eben in anderen ...
Opteron
Redaktion
☆☆☆☆☆☆
So langjährige Partner sind Sun & AMD nicht. Seit der alte CEO weg ist (2006) ist auch deutlich, das der neue (J. Schwartz) mehr pragmatisch ist. Da werden Sun Server auch mit Windows ausgeliefert und IBM darf Solaris auf seine Kisten spielen. Erlaubt ist, wenns der Kasse nützt. Wenn AMD also Probleme hat, dann juckt das Sun nicht wirklich, da muss man eher sagen .. selber Schuld AMD ... ich frag mich mittlerweile, wieso alle zirkulierenden, ursprünglichen K10 Pläne gestrichen wurden, bzw. nicht weiterverfolgt wurden, siehe z.B. hier:Mich wundert aber, daß SUN als langjähriger AMD Partner mit dieser Pikanterie nicht gerade für AMD wirbt. Gerade die neu geschmiedete Intel-SUN-Allianz läßt Gerüchte zu, die vielleicht vermuten lassen, daß SUN mehr weiß als der Rest der Welt. Löst man sich auf diese Weise sanft von AMD und zieht Kunden hinüber zu Intel-Plattformen?
http://forum.pcvsconsole.com/viewthread.php?tid=11317
Krasse Ansätze klar, aber die Technik lebt von der Innovation. Stattdessen hat sich AMD anscheinend für den bequemen Nichtstueweg entschieden ... tja willkommen in der Stagnation.
ciao
Alex
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
1.) Das ist alles nur geschätzt, wenn überhaupt. Ich darf einmal darauf hinweisen, dass es ja schon früher hieß, dass der Barcelona um ein ordentliches Eck schneller ist, als der Core 2 Duo und jetzt ist er um 10% langsamer bei gleichem Takt und hat fast 1GHz weniger.
2.) Auf die SPEC Werte kann man nichts geben. Das ist absoluter Mist, der nicht einmal ansatzweise realitätsnah ist. Es sieht zwar so aus, als wären das real existierende Anwendungen, aber das sind sie nicht. Das beweist am Besten wieder einmal die Standard H.264 Implementierung, die ein Teil des Spec INT Tests ist. Bei nur einem File gibt es überhaupt keine Optimierung auf mehrere Kerne, was absolut realitätsfern ist. Gerade H.264 ist ein Beispiel dafür, wie man eine gute Quad Core Optimierung schafft. Der Durchsatz skaliert wiederum mit ca. 390% bei 4 Kernen, was auch wieder nicht stimmen kann, da ja der ganze RAM bzw. teilweise auch der L2 Cache geshared werden.
Außerdem schaut euch einmal die andere Auswahl an Programmen an. Ich behaupte einmal nicht, dass das der übliche Alltag eines PCs bzw. Servers ist. Das sind hochoptimierte wissenschaftliche Simulationen, die oft als DC Projekte durchgeführt werden, aber das sind eher Ausnahmen, genauso wie diverse Schachprogramme. Das sind hauptsächlich Programme, die auf die Rechenleistung der CPU setzen (ADD/MUL/DIV) bzw. gute Branch Prediction bei vielen Verzweigungen, statt auf das Speicherinterface, das ja auch Teil der CPU ist. Deshalb skaliert es ja auch so gut mit steigender Kernanzahl bzw. mit SMT. In Wirklichkeit entwickelt sich der Speicher viel mehr zu einer Bremse z.B. bei Datenbanken. Da haben die z.B. überhaupt nichts dabei, aber Hauptsache die Hälfte irgendwelche mathematischen Wurzeln, Exponentialfunktionen etc. wo man viel Tuning bei den SSE Einheiten machen kann.
Ein weiterer Nachteil eines plattformunabhängigen Benchmarks ist es, dass man auf viele Funktionen des Betriebssystems überhaupt verzichten muss. Heute wird eine ganze Menge managed Code geschrieben z.B. in C# oder auch viel Code, der gar nicht aus derselben Quelle stammt, wo irgendwelche DLLs eingebunden werden und die dann ziemlich oft aufgerufen werden und wo das System dann die ganze Zeit mit System Calls beschäftigt ist.
2.) Auf die SPEC Werte kann man nichts geben. Das ist absoluter Mist, der nicht einmal ansatzweise realitätsnah ist. Es sieht zwar so aus, als wären das real existierende Anwendungen, aber das sind sie nicht. Das beweist am Besten wieder einmal die Standard H.264 Implementierung, die ein Teil des Spec INT Tests ist. Bei nur einem File gibt es überhaupt keine Optimierung auf mehrere Kerne, was absolut realitätsfern ist. Gerade H.264 ist ein Beispiel dafür, wie man eine gute Quad Core Optimierung schafft. Der Durchsatz skaliert wiederum mit ca. 390% bei 4 Kernen, was auch wieder nicht stimmen kann, da ja der ganze RAM bzw. teilweise auch der L2 Cache geshared werden.
Außerdem schaut euch einmal die andere Auswahl an Programmen an. Ich behaupte einmal nicht, dass das der übliche Alltag eines PCs bzw. Servers ist. Das sind hochoptimierte wissenschaftliche Simulationen, die oft als DC Projekte durchgeführt werden, aber das sind eher Ausnahmen, genauso wie diverse Schachprogramme. Das sind hauptsächlich Programme, die auf die Rechenleistung der CPU setzen (ADD/MUL/DIV) bzw. gute Branch Prediction bei vielen Verzweigungen, statt auf das Speicherinterface, das ja auch Teil der CPU ist. Deshalb skaliert es ja auch so gut mit steigender Kernanzahl bzw. mit SMT. In Wirklichkeit entwickelt sich der Speicher viel mehr zu einer Bremse z.B. bei Datenbanken. Da haben die z.B. überhaupt nichts dabei, aber Hauptsache die Hälfte irgendwelche mathematischen Wurzeln, Exponentialfunktionen etc. wo man viel Tuning bei den SSE Einheiten machen kann.
Ein weiterer Nachteil eines plattformunabhängigen Benchmarks ist es, dass man auf viele Funktionen des Betriebssystems überhaupt verzichten muss. Heute wird eine ganze Menge managed Code geschrieben z.B. in C# oder auch viel Code, der gar nicht aus derselben Quelle stammt, wo irgendwelche DLLs eingebunden werden und die dann ziemlich oft aufgerufen werden und wo das System dann die ganze Zeit mit System Calls beschäftigt ist.
Mogul
Grand Admiral Special
Naja, der Weg ist zumindest nicht falsch. OpenSolaris und Co zeigen eine nette Tendenz. Im übrigen müsste ich kein Windows supporten, auch wenn ich System Engineer bin. Ne Sun mit Windows kaufen? Ich kennen selbstverständlich keine Zahlen, aner warum sollte das irgendjemand machen. Das ist im Prinzip wie so als würde man versuchen den Firmenaustatter zu überzeugen für die BüroPCs AMD Prozessoren zu nehmen - ok, das geht mittlerweile wohl eher als noch vor 2 Jahren.So langjährige Partner sind Sun & AMD nicht. Seit der alte CEO weg ist (2006) ist auch deutlich, das der neue (J. Schwartz) mehr pragmatisch ist. Da werden Sun Server auch mit Windows ausgeliefert und IBM darf Solaris auf seine Kisten spielen. Erlaubt ist, wenns der Kasse nützt. Wenn AMD also Probleme hat, dann juckt das Sun nicht wirklich, da muss man eher sagen .. selber Schuld AMD ...
MFG
Opteron
Redaktion
☆☆☆☆☆☆
Tja hmm, vielleicht gibts da nicht viel Interesse und Sun wollte MS nur im Virginia boot haben:Ich kennen selbstverständlich keine Zahlen, aner warum sollte das irgendjemand machen. Das ist im Prinzip wie so als würde man versuchen den Firmenaustatter zu überzeugen für die BüroPCs AMD Prozessoren zu nehmen - ok, das geht mittlerweile wohl eher als noch vor 2 Jahren.
http://blogs.sun.com/jonathan/entry/are_you_serious_on_partnering
Aber wie auch immer .. falls es einer haben will, dann kann er das
Vielleicht gibts auch doch Interesse, Zitat aus obigen Link:
Aber jetzt wirds zuviel OT ^^Second, Sun will OEM and support the Windows platform. We'll be bundling our Java runtime environment, our tool chain, and our Java Enterprise System middleware (and the OpenOffice suite for good measure) in the Windows we distribute. So customers and partners can now buy directly from Sun. I've heard from a number of both since we signed this deal saying how excited they are - they can now consolidate a lot more business on Sun. That's what we wanted. And our competitors have to take a slide out of their presentations (the one that says "Buy from us, because Sun isn't serious about Windows.").
ciao
Alex
Hehe, mit einer Antwort in diesem Stil hatte ich bei Dir gerechnet. Wie gnädig, dass Du täglich aus Deinem Olymp auf den grünen Planeten herabsteigst (und das gleich mehrmals), um den Mob mit Deiner Weisheit zu erleuchten Miss Du mal schön weiter in Deiner eigenen kleinen Welt - ich bin sicher, da bist Du der König... ich weiß zwar nicht genau, wann Du das letzte Mal einen wirklichen Benchmark gefahren hast
[...]
jaja ... der Kuh 'was vom Milchmachen erzählen wollen ...
[...]
Wer immer noch glaubt, ein benchmark hätte etwas mit einer Anwendung der realen Welt gemein hat etwas Prinzipielles nicht verstanden. Ich schätze, die wenigsten machen (noch) diesen Fehler.
[...]
Jeder 'mißt' eben in seiner Welt. Die einen in ihrer kleinen LAMP-Welt mit den üblichen Verdächtigen, andere eben in anderen ...
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 783
- Antworten
- 0
- Aufrufe
- 699
- Antworten
- 0
- Aufrufe
- 702