AMD Shanghai Performance-Werte durchgesickert

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Sun und Intel haben am vergangenen Wochenende im Rahmen einer Präsentation ein paar pikante Zahlen <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">veröffentlicht</A>. Nicht nur, dass SPEC-Werte des eigenen Nehalem-Prozessors gezeigt wurden, der erst Ende des Jahres als Nachfolger der Penryn-Familie auf den Markt kommen soll, es wurden auch Benchmarks des für Ende 2008 anstehenden 45 nm K10 Prozessors mit <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Codenamen Shanghai</a> gezeigt. Woher die Zahlen stammen, ob Intel sie geschätzt hat oder Sun als langjähriger AMD-Partner bereits frühe Samples besitzt, ist nicht bekannt.

Die veröffentlichten Zahlen, die natürlich mit höchster Vorsicht zu behandeln sind, beinhalten gute und schlechte Nachrichten für AMD, sollten sie sich als authentisch erweisen. So soll das verwendete Shanghai-System, ein Server mit zwei CPU-Sockeln und 8 Kernen, taktfrequenzbereinigt 29 Prozent (CPUfp_rate_base2006) bzw. 11 Prozent (CPUint_rate_base2006) mehr Leistung bringen, als ein aktueller Opteron auf Barcelona-Basis. AMD hatte ja angekündigt, dass der Shanghai nicht nur einen Die-Shrink von 65 nm auf 45 nm darstellen wird, sondern auch über 6 MB statt 2 MB L3-Cache verfügen und "IPC-Enhancements" enthalten wird. Obendrein ist das aufgeführte System mit 2,8 GHz statt mit 2,3 GHz getaktet, sodass die effektiven Performance-Werte aufgrund der höheren Taktfrequenzen prozentual deutlich stärker steigen werden.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1833"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1833"></a><br><font size="1">Bildquelle: <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">ZDNet</A></font></center>
So weit, so gut für AMD. Allerdings zeigte das Diagramm wie erwähnt auch die Werte eines Nehalem-Systems (CPU-Codename Gainestown), leider ohne weitere Daten wie Taktfrequenz oder RAM-Art. Auch dieses System verfügte über 2 Prozessoren und damit 8 Kerne; da der Gainestone aber wie sein nicht leiblicher Großvater Pentium 4 wieder über <a href="http://www.planet3dnow.de/artikel/diverses/doping/14.shtml">SMT alias HyperThreading</a> verfügen wird, stehen den Tests satte 16 virtuelle Kerne zur Verfügung. Während AMDs Shanghai die alten Xeons selbst mit höherer Taktfrequenz im Griff hat, sind die Nehalem-Werte aus einer anderen Welt. Dabei darf natürlich nicht übersehen werden, dass die SPEC-Benchmarks sehr wohlwollend auf mehr Kerne (gleich ob echte oder virtuelle) reagieren. Ob der Nehalem in Alltagsanwendungen ebenfalls so deutlich in Front sein wird, sehen wir Ende des Jahres - sofern AMD und Intel ihre <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Zeitpläne</a> einhalten können.
 
Hauptsache Shanghai bringt mehr Leistung und ermöglicht höhere Taktraten. Alles andere wird man sehen, wenn Nehalem kommt.
 
Zuletzt bearbeitet:
Hmmm nenn mich spitzfindig, aber ich würde in der Überschrift anstatt "Werte" Schätzung schreiben. Werte hört sich nach "gemessen" an, was aber nicht gemacht wurde.

Intel selbst schreibt im zugrundeliegenden PDF "Projections":
Rduh3uobZsWhqXp.JPG


Und ich frag mich ehrlich gesagt, wie Intel das genau meint, ist da wirklich immer ein Wertepaar (INT/FP) jeweils für 2 CPUs (INTEL/AMD) gültig ?

ciao

Alex
 
Sun und Intel haben am vergangenen Wochenende im Rahmen einer Präsentation ein paar pikante Zahlen <a href="http://blogs.zdnet.com/Ou/?p=1025" TARGET="_blank">veröffentlicht</A>. Nicht nur, dass SPEC-Werte des eigenen Nehalem-Prozessors gezeigt wurden, der erst Ende des Jahres als Nachfolger der Penryn-Familie auf den Markt kommen soll, es wurden auch Benchmarks des für Ende 2008 anstehenden 45 nm K10 Prozessors mit <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Codenamen Shanghai</a> gezeigt. Woher die Zahlen stammen, ob Intel sie geschätzt hat oder Sun als langjähriger AMD-Partner bereits frühe Samples besitzt, ist nicht bekannt.
Ob der Nehalem in Alltagsanwendungen ebenfalls so deutlich in Front sein wird, sehen wir Ende des Jahres - sofern AMD und Intel ihre <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635692">Zeitpläne</a> einhalten können.


:P :P Pffffhhhhh ......... klassische SHP ´s schon wieder .....erinnert doch ein wenig an: "der K10 hat dreifache IPC-Leistung wie der K8, kommt im September 07 mit 2,6 und noch vor Weihnachten mit 3Ghz und fegt alles weg blablablablaaa........." :-X
So lang isses doch gar nicht mehr hin , wartet ein wenig und stürtzt euch ins reele Silizium....


Mmoe
 
Hauptsache Shanghai bringt mehr Leistung und ermöglicht höhere Taktraten. Alles andere wird man sehen, wenn Nehalem kommt.
Genau.

Und das Diagramm unter Berücksichtung von ca- -40% TDP beim SOI-45nm Prozess (identisch zu http://arstechnica.com/news.ars/post/20080207-ibm-shrinks-cell-to-45nm-cheaper-ps3s-will-follow.html ) ergibt höheren Takt bei rechnerisch reduzierter TDP.

Die verbesserte IPC läßt auch indirekt vermuten, dass der Barcelona nach dem Motto 'Hauptsache er läuft' raus kam, wobei der TLB-Bug ja ein anderes Problem ist.

Die gewaltige Leistung des Nehalem ist schwer einzuschätzen da der Realtakt nicht angegeben ist. Jener dürfte aber weder die 3 GHz überschritten haben, nur irgendwo stark gedrosselt (2 GHz ? ) vorgelegen haben.
Eine doppelte Anzahl an Cores (selbst nur virtuell) bei 4-fach superskalarer Architektur erweckt viel bisher freie CPU-Kapazität zum Leben.
Interessant, dass vs. Conroe die FPU-Leistung so enorm ansteigt. Aber da hat Intel ja schon Penryn-Benchmarks mit hohen Werten gezeigt, der Zuwachs wäre dann nicht mehr so hoch vs. Penryn und passend für HT-Nutzung der SSE-Unit.
 
Also ich halte davon gar nichts, das sagt doch überhaupt nichts aus. Erstens ist es aus keiner objektiven Quelle, zweitens sind die Chips alle noch nicht da, so daß gar nicht klar ist, welcher Chip wann gegen welchen anderen antreten wird. Da kann man genauso eine schöne Grafik darüber malen, welche Lottozahlen wohl am nächsten Samstag am wahrscheinlichsten drankommen.
 
Wenn ich das ultrakleingedruckte auf diesem Sheet lese:
http://www.bilder-space.de/upload/Rduh3uobZsWhqXp.JPG
...besitzt Intel scheinbar eine Art "architecture simulator", mit dem sie grob die Performance dieser noch nicht erschienenen Chips hochrechnen können: "Results were derived using simulations run on an architecture-simulator or model"

Demnach wohl nicht leaked by Sun *chatt*
 
Demnach wohl nicht leaked by Sun *chatt*
Jein, die Folie war halt in ne Sun pdf drin (mittlerweile natürlich vom Server genommen ^^).

Mehr oder minder sind das halt die Zahlen, mit denen Intel selber rechnet. Aber gemessene Werte sind das halt nicht.

Die Diskussion dazu ist übrigends bei aceshardware:
http://aceshardware.freeforums.org/sun-intel-slides-have-nehalem-performance-projections-t385.html

Bei uns gibs/gabs bereits auch was zu dem Thema:
http://www.planet3dnow.de/vbulletin/showthread.php?t=319384&page=8

ciao

Alex
 
Ehrlich gesagt glaube ich nicht mehr, dass AMD noch die Kurve bekommen wird - nicht mehr mit dem K10-Kern. Hoffentlich wird der Sledgehammer (komplett neue Architektur) nächstes Jahr was.
Grundsätzlich muss ich aber sagen, dass es mich stört, dass wir immer noch auf dieser x86-Scheiße hängen. Wäre eine einfachere ISA-Architektur wie die die des PPCs verbreitet, dann würden es auch kleine Konkurrenten schaffen performante CPUs zu designen und die dann fremd-fertigen zu lassen. Bei den x86ern ist der Aufwand für eine performante CPU jedoch ausufernd. x86 bietet haufenweise Stolperfallen die es sehr schwierig machen eine konkurrenzfähige CPU zu designen; das komplexe Instruktions-Layout das die Decoder wer weiß wie fett macht, die Kohärenz zwischen Code- und Daten- Caches, der ganze Protectedmode-Scheiß mit seinen Segmenten, komplett schwachsinnigen Interupt- und Task-Gates und wer weiß wie komplexer Systemprogrammierung (schon mal das IA-32 System Programming Guide gesehen ...), dass die Architektur keine relaxed Memory-Consistency kennt und was weiß ich. Der TLB-Fehler z.B. wäre bei einer Architketur mit relaxed Consistency garnicht möglich weil die Cache-Kohärenz der PTE-Bits für accessed und modified explizit durch das OS explizit erzwungen werden muss.
Diese Probleme machen es auch schwierig eine x86-CPU auf einer "RISC"-CPU (RISC hat hier eher die Bedeutung des einfachreren ISA-Modells, Memory- und Systemprogrammieungs-Modells) performant zu emulieren. Ich warte noch auf den Tag wo es jemandem gelingt mit etwas Hirnschmalz das dennoch auf die Reihe zu bekommen damit ein abwärs-kompatibler Weg weg von x86 möglich ist; Transmeta hat's nicht gepackt obwohl die schon gezeigt haben in welche Richtung der Weg gehen könnte.
Als Programmierer stört mich x86 ehrlich gesagt nicht; die Performance ist gut und selbst in Asm sind x86er erträglich zu programmieren - wenn man überhaupt noch Asm programmiert. Aber wenn man den gleichen Aufwand den man in die Entwicklung einer x86-CPU steckt in eine "RISC"-CPU steckt, dann wäre die Performance noch ein Stück höher, die CPUs bzgl. der Die-Größe kleiner und die Konkurrenz unter den Herstellern größer.
 
Zuletzt bearbeitet:
Sledgehammer war der erste K8 Opteron im Jahr 2003 ;) Ich denke Du meinst den Bulldozer (K11) bzw. Sandtiger.
Jo wozu zum Bulldozer zu sagen ist, dass der von der Roadmap für 2009 verschwunden ist ... hatte ich zwischendurch (auch) vergessen ... Für 2009 stand auf dem letzten Dezemberplan nur Montreal (Dual Die Shanghai, bzw. 8 Kern K10) an.

ciao

Alex
 
Schnee von gestern - im Sinne des Wortes.

In den 'pikanten Veröffentlichungen' steht, daß es sich hierbei um Schätzungen der in den SPEC-Charts veröffentlichten Werte handelt. Wie gut informierte HPC-Nutzer wissen, sind die Barcelonas seit geraumer Zeit 'RAUS' aus dieser Liste. Lediglich frühe Werte des SPECfp_rate 2006 und SPECint_rate 2006 kann man hier und da noch finden. Und hier zeigte sich, daß Barcelona und Xeon (53XX) bei gleichem Takt und 4 Kernen gleichauf lagen, bei 8 Kernen konnte im Fließkommabereich der Barcelona, im Integer die Intel CPU punkten. Auch AMD hat kurz vor Einführung des Barcelona aberwitzige 'Schätzwerte' veröffentlicht, die ob der Tatsachen dann Lügen gestraft wurden.

Weiter möchte ich zum Kommentar der Skalierfreude der SPEC-Suite einmal fragen, was es denn besseres gibt als eine skalierende Testsuite? Wenn man sich natürlich auf ein Betriebssystem beschränkt, daß naturgemäß schon Schwierigkeiten damit hat, 4 Kerne richtig auszulasten, darf man keine Prediktionen erwarten!
.
EDIT :
.

[Sarkasmus]
Wahrscheinlich hat nichmal AMD Daten dazu .. außer den paar Marketing Folien von Mitte 07.
[/Sarkasmus]

ciao

Alex


... trotz des Sarkasmus schätze ich einen Gehalt Wahrheit an dieser Aussage. Das PR-Getöse im letzten Jahr um K8L alias K10 ist noch immer im Gedächtnis wach.

Mich wundert aber, daß SUN als langjähriger AMD Partner mit dieser Pikanterie nicht gerade für AMD wirbt. Gerade die neu geschmiedete Intel-SUN-Allianz läßt Gerüchte zu, die vielleicht vermuten lassen, daß SUN mehr weiß als der Rest der Welt. Löst man sich auf diese Weise sanft von AMD und zieht Kunden hinüber zu Intel-Plattformen?

Daß Gainstown einen wirklichen Leistungsschub bringen wird, war genauen Beobachtern sowieso klar - denke ich. Intel hat stetig an der IPC-Leistung der C2D Architektur gefeilt und hat derweil eine interessante Mikroarchitektur, die leider massiv durch den archaischen FSB gebremst wird. Ohne diese Fußfessel FSB und mit einem folgerichtigen nativen Quad-Core-Design düfte mit den neuen Prozessoren Furore sicher sein.
Shanghai wird vermutlich nicht viel Spektakuläres liefern, außer die notwendigen Progressionen hinsichtlich Cachegröße und eventuell von drei- auf vierfach skalar ... So recht will sich beim ir auch keine Hoffnung breit machen, daß es besser werden könnte, die Spezial-FPU-Partner, die angeblich fü¶ Zusatzleistung sorgen sollten, sind nicht zu sehen und zu diesem Zeitpunkt in AMD zu investieren ist nur göttlichen Ölmultis vorbehalten ...
 
Wie gut informierte HPC-Nutzer wissen, sind die Barcelonas seit geraumer Zeit 'RAUS' aus dieser Liste.
Das wissen nicht nur HPC-Nutzer:
SPEC löscht alle "Barcelona"-Benchmarks
Weitere SPEC Benchmarkwerte des "Barcelona" vor Löschung

Weiter möchte ich zum Kommentar der Skalierfreude der SPEC-Suite einmal fragen, was es denn besseres gibt als eine skalierende Testsuite?
Das ist ein zweischneidiges Schwert. Benchmarks, die unrealistisch freudig mit der Kern-Anzahl skalieren, sind genauso wenig alltagstauglich, wie jene, die überhaupt nicht skalieren. Wenn der Dhrystone-/Whetstone-Benchmark in diversen Testsuites behauptet, der Core 2 Quad ist 4x so schnell, wie ein Core 2 Solo gleicher Taktfrequenz, nur weil er 4x gestartet wird und im L1-Cache läuft, dann ist das genauso falsch, wie irgendein singlethreaded Test, der behauptet, die beiden wären gleich schnell :P
Wenn man sich natürlich auf ein Betriebssystem beschränkt, daß naturgemäß schon Schwierigkeiten damit hat, 4 Kerne richtig auszulasten, darf man keine Prediktionen erwarten!
Das hat mit "dem Betriebssystem", von dem Du wahrscheinlich sprichst, nur wenig zu tun, sondern mit der Anwendung. Auf dem Planet 3DNow! Webserver z.B. läuft Gentoo und die üblichen Verdächtigen (Apache, MySQL, etc.) Auch hier macht sich das Multiprocessing einerseits natürlich positiv bemerkbar, da viele Anwendungen (=processes) gleichzeitig laufen und auf die Kerne verteilt werden können, trotzdem ist bei einzelnen Anwendungen noch immer die Leistungsfähigkeit eines Kerns relevant und der bremsende Faktor, z.B. bei einer MySQL-Abfrage, wo ein Kern voll ausgelastet wird und die übrigen Däumchen drehen. Hier ist das System trotz seiner 4 Kerne mitnichten 4x so schnell wie es ein Server mit einem Kern wäre, obwohl gut skalierende Benchmarks dies womöglich behaupten.
 

... ic hwußte doch, daß die Schießhunde auf diesen Link stoßen müssen ;-)

Das ist ein zweischneidiges Schwert. Benchmarks, die unrealistisch freudig mit der Kern-Anzahl skalieren, sind genauso wenig alltagstauglich, wie jene, die überhaupt nicht skalieren. Wenn der Dhrystone-/Whetstone-Benchmark in diversen Testsuites behauptet, der Core 2 Quad ist 4x so schnell, wie ein Core 2 Solo gleicher Taktfrequenz, nur weil er 4x gestartet wird und im L1-Cache läuft, dann ist das genauso falsch, wie irgendein singlethreaded Test, der behauptet, die beiden wären gleich schnell :P

... ich weiß zwar nicht genau, wann Du das letzte Mal einen wirklichen Benchmark gefahren hast. Dein obiger Vergleich läßt Stagnation im Neolitikum der Prozessortechnik vermuten ... Gerade das Problem gigantomansich anmutender Caches ist mit der Suite 2000 der SPEC recht effektiv angegangen worden - über diese simple 'Lehrbuchdidaktik' ist man längst hinaus!

Das hat mit "dem Betriebssystem", von dem Du wahrscheinlich sprichst, nur wenig zu tun, sondern mit der Anwendung. Auf dem Planet 3DNow! Webserver z.B. läuft Gentoo und die üblichen Verdächtigen (Apache, MySQL, etc.) Auch hier macht sich das Multiprocessing einerseits natürlich positiv bemerkbar, da viele Anwendungen (=processes) gleichzeitig laufen und auf die Kerne verteilt werden können, trotzdem ist bei einzelnen Anwendungen noch immer die Leistungsfähigkeit eines Kerns relevant und der bremsende Faktor, z.B. bei einer MySQL-Abfrage, wo ein Kern voll ausgelastet wird und die übrigen Däumchen drehen. Hier ist das System trotz seiner 4 Kerne mitnichten 4x so schnell wie es ein Server mit einem Kern wäre, obwohl gut skalierende Benchmarks dies womöglich behaupten.


jaja ... der Kuh 'was vom Milchmachen erzählen wollen ...

Ein Benchmark ist das, was dransteht: ein Benchmark! Der Benchmark soll nach Möglichkeit die potentiellen Fähigkeiten einer Baugruppe messen und ausloten. Ohne 'Metrik' geht nichts, kein Vergleich, nichts. Wer immer noch glaubt, ein benchmark hätte etwas mit einer Anwendung der realen Welt gemein hat etwas Prinzipielles nicht verstanden. Ich schätze, die wenigsten machen (noch) diesen Fehler.
Die SPECsuite hat sich nicht umsonst zu einem Referenztest gemausert. Die Darlegung dedizierter Testergebnisse gibt potentiell die Leistungsfähigkeit in Verbindung mit entsprechender Software an. Ob die Software das am Ende nutzt oder nutzen kann, ist eine andere Sache. Im übrigen kann ich Dir aus eigener Erfahrung sagen, daß die SPEC-Werte in der Regel sehr aussagekräftig hinsichtlich der Rechenleistung in bezug auf 'RECHNEN' sind.

Wenn man natürlich Windows einsetzt und nur Binaries installieren kann, die im Rahmen einer Allgemeinverträglichkeit compiliert wurden oder einen Produktionsserver hat, sei es nun das Gefrickel von RedHat, Gentoo oder Suse oder wem auch immer, statisch, ab und an mal ein paar Updates, dann ist mir klar, daß gewisse Evolutionen Aeonen später Einzug halten (können).

Jeder 'mißt' eben in seiner Welt. Die einen in ihrer kleinen LAMP-Welt mit den üblichen Verdächtigen, andere eben in anderen ...
 
Mich wundert aber, daß SUN als langjähriger AMD Partner mit dieser Pikanterie nicht gerade für AMD wirbt. Gerade die neu geschmiedete Intel-SUN-Allianz läßt Gerüchte zu, die vielleicht vermuten lassen, daß SUN mehr weiß als der Rest der Welt. Löst man sich auf diese Weise sanft von AMD und zieht Kunden hinüber zu Intel-Plattformen?
So langjährige Partner sind Sun & AMD nicht. Seit der alte CEO weg ist (2006) ist auch deutlich, das der neue (J. Schwartz) mehr pragmatisch ist. Da werden Sun Server auch mit Windows ausgeliefert und IBM darf Solaris auf seine Kisten spielen. Erlaubt ist, wenns der Kasse nützt. Wenn AMD also Probleme hat, dann juckt das Sun nicht wirklich, da muss man eher sagen .. selber Schuld AMD ... ich frag mich mittlerweile, wieso alle zirkulierenden, ursprünglichen K10 Pläne gestrichen wurden, bzw. nicht weiterverfolgt wurden, siehe z.B. hier:
http://forum.pcvsconsole.com/viewthread.php?tid=11317

Krasse Ansätze klar, aber die Technik lebt von der Innovation. Stattdessen hat sich AMD anscheinend für den bequemen Nichtstueweg entschieden ... tja willkommen in der Stagnation.

ciao

Alex
 
1.) Das ist alles nur geschätzt, wenn überhaupt. Ich darf einmal darauf hinweisen, dass es ja schon früher hieß, dass der Barcelona um ein ordentliches Eck schneller ist, als der Core 2 Duo und jetzt ist er um 10% langsamer bei gleichem Takt und hat fast 1GHz weniger.

2.) Auf die SPEC Werte kann man nichts geben. Das ist absoluter Mist, der nicht einmal ansatzweise realitätsnah ist. Es sieht zwar so aus, als wären das real existierende Anwendungen, aber das sind sie nicht. Das beweist am Besten wieder einmal die Standard H.264 Implementierung, die ein Teil des Spec INT Tests ist. Bei nur einem File gibt es überhaupt keine Optimierung auf mehrere Kerne, was absolut realitätsfern ist. Gerade H.264 ist ein Beispiel dafür, wie man eine gute Quad Core Optimierung schafft. Der Durchsatz skaliert wiederum mit ca. 390% bei 4 Kernen, was auch wieder nicht stimmen kann, da ja der ganze RAM bzw. teilweise auch der L2 Cache geshared werden.
Außerdem schaut euch einmal die andere Auswahl an Programmen an. Ich behaupte einmal nicht, dass das der übliche Alltag eines PCs bzw. Servers ist. Das sind hochoptimierte wissenschaftliche Simulationen, die oft als DC Projekte durchgeführt werden, aber das sind eher Ausnahmen, genauso wie diverse Schachprogramme. Das sind hauptsächlich Programme, die auf die Rechenleistung der CPU setzen (ADD/MUL/DIV) bzw. gute Branch Prediction bei vielen Verzweigungen, statt auf das Speicherinterface, das ja auch Teil der CPU ist. Deshalb skaliert es ja auch so gut mit steigender Kernanzahl bzw. mit SMT. In Wirklichkeit entwickelt sich der Speicher viel mehr zu einer Bremse z.B. bei Datenbanken. Da haben die z.B. überhaupt nichts dabei, aber Hauptsache die Hälfte irgendwelche mathematischen Wurzeln, Exponentialfunktionen etc. wo man viel Tuning bei den SSE Einheiten machen kann.
Ein weiterer Nachteil eines plattformunabhängigen Benchmarks ist es, dass man auf viele Funktionen des Betriebssystems überhaupt verzichten muss. Heute wird eine ganze Menge managed Code geschrieben z.B. in C# oder auch viel Code, der gar nicht aus derselben Quelle stammt, wo irgendwelche DLLs eingebunden werden und die dann ziemlich oft aufgerufen werden und wo das System dann die ganze Zeit mit System Calls beschäftigt ist.
 
So langjährige Partner sind Sun & AMD nicht. Seit der alte CEO weg ist (2006) ist auch deutlich, das der neue (J. Schwartz) mehr pragmatisch ist. Da werden Sun Server auch mit Windows ausgeliefert und IBM darf Solaris auf seine Kisten spielen. Erlaubt ist, wenns der Kasse nützt. Wenn AMD also Probleme hat, dann juckt das Sun nicht wirklich, da muss man eher sagen .. selber Schuld AMD ...
Naja, der Weg ist zumindest nicht falsch. OpenSolaris und Co zeigen eine nette Tendenz. Im übrigen müsste ich kein Windows supporten, auch wenn ich System Engineer bin. Ne Sun mit Windows kaufen? Ich kennen selbstverständlich keine Zahlen, aner warum sollte das irgendjemand machen. Das ist im Prinzip wie so als würde man versuchen den Firmenaustatter zu überzeugen für die BüroPCs AMD Prozessoren zu nehmen - ok, das geht mittlerweile wohl eher als noch vor 2 Jahren.

MFG
 
Ich kennen selbstverständlich keine Zahlen, aner warum sollte das irgendjemand machen. Das ist im Prinzip wie so als würde man versuchen den Firmenaustatter zu überzeugen für die BüroPCs AMD Prozessoren zu nehmen - ok, das geht mittlerweile wohl eher als noch vor 2 Jahren.
Tja hmm, vielleicht gibts da nicht viel Interesse und Sun wollte MS nur im Virginia boot haben:
http://blogs.sun.com/jonathan/entry/are_you_serious_on_partnering

Aber wie auch immer .. falls es einer haben will, dann kann er das ;-)
Vielleicht gibts auch doch Interesse, Zitat aus obigen Link:
Second, Sun will OEM and support the Windows platform. We'll be bundling our Java runtime environment, our tool chain, and our Java Enterprise System middleware (and the OpenOffice suite for good measure) in the Windows we distribute. So customers and partners can now buy directly from Sun. I've heard from a number of both since we signed this deal saying how excited they are - they can now consolidate a lot more business on Sun. That's what we wanted. And our competitors have to take a slide out of their presentations (the one that says "Buy from us, because Sun isn't serious about Windows.").
Aber jetzt wirds zuviel OT ^^

ciao

Alex
 
... ich weiß zwar nicht genau, wann Du das letzte Mal einen wirklichen Benchmark gefahren hast
[...]
jaja ... der Kuh 'was vom Milchmachen erzählen wollen ...
[...]
Wer immer noch glaubt, ein benchmark hätte etwas mit einer Anwendung der realen Welt gemein hat etwas Prinzipielles nicht verstanden. Ich schätze, die wenigsten machen (noch) diesen Fehler.
[...]
Jeder 'mißt' eben in seiner Welt. Die einen in ihrer kleinen LAMP-Welt mit den üblichen Verdächtigen, andere eben in anderen ...
Hehe, mit einer Antwort in diesem Stil hatte ich bei Dir gerechnet. Wie gnädig, dass Du täglich aus Deinem Olymp auf den grünen Planeten herabsteigst (und das gleich mehrmals), um den Mob mit Deiner Weisheit zu erleuchten *buck* *lol* Miss Du mal schön weiter in Deiner eigenen kleinen Welt - ich bin sicher, da bist Du der König *great*
 
Zurück
Oben Unten