Strategische Überlegungen64Bit; IBM SUN AMD Intel

Na das kommt mir zu schnell.

So schnell gibt intel den Itani(c)um sicherlich nicht auf.

IBM hat da die überzeugende Power-Familie und auch die SPARCS werden weiterentwickelt. Fujitsu hat denen ordentlich durch die Ohren gepustet.

Aber da ist nun ein Artikel auf dem Inquirer, der sehr optimistisch die Zukunft von AMDs AMD64 beschreibt...

Ein Hoch auf die verdammte Kompatibelität.
AMD design will kill competition
Analysis Sun's choice of Opteron rings death knell for non-x86 CPUs


By Arron Rouse: Sonntag 08 Februar 2004, 16:35

THE X86 ARCHITECTURE is soon to be pretty much the only game in town. It was bound to happen. In Intel's perfect world, everybody would be using its processor architecture. And that corporate dream is being realised right now, though not in the way Intel might have hoped. It's going to have to share the credit with arch-rival AMD.

It all comes down to 64bit computing. Intel tried to stave off the market's hunger for a cheap 64bit processor, at least until it was ready to produce cut-down versions of the Itanium, but the path was set by IBM and Intel many years ago. Intel failed to pay enough attention to its own history; the lessons were there in the move from 16 to 32bit.

History Repeating Itself
In 1981 IBM announced the 5150 PC. It was the machine set to revolutionise business computing but it had a major design flaw. For some inexplicable reason IBM chose to use the 8088 processor in that first PC. It was a choice that bordered on the bizarre. The 8088 was the bottom of the line of the 8086 series of processors from Intel and most experts agreed it was one of the worst processor designs on the market. Its memory management has been described as "brain damaged" and register allocation for data was like a game of Russian roulette.
...
Today's World
These days the x86 architecture has taken over. Thanks, in part at least, to good compilers being available, programmers didn't have to worry too much about the dreadful architecture underneath the bonnet of a PC. The x86 has become the most common desktop processor in the world. It has banished many other, far superior, processor designs through sheer clout of numbers. And the market is moving relentlessly towards the PC as its only architecture.
...
Big Tin
The biggest obstacle to the PC taking over completely has been the top end of the market, the big tin. Until recently you would have had to start buying specialist equipment if you wanted a supercomputer. Then came PC clusters. They weren't ideal; trying to get a bunch of 32bit processors to do what is at least a 64bit job is obviously less than optimal. But clustering works and it's cheap.

When AMD launched the Opteron, it made cheap clusters of 64bit machines a real possibility. The writing is now on the wall for pretty much every other 64bit processor, with the possible exception of IBM's Power series
...
Conclusion
So what we have is a situation where x86 desktop processors are likely to take over the whole desktop and above markets. A 64bit x86 is a long way from being the perfect processor; it's a kludged 64bit architecture built on a kludged 32bit architecture built on a kludged 16bit architecture that was designed to be compatible with the 8bit 8080. Hardly the best choice.

But economy of scale means that it will win. Intel is having to prepare a 64bit x86 processor. It had no choice; big customers like Dell will have been breathing down its neck for years over the AMD64. It's certainly no coincidence that Dell was dropping big hints about an Intel 64bit x86 processor a short while ago; Dell is feeling the pinch of customers wanting 64bit PC compatible machines and not being able to supply those needs.
...
http://www.theinquirer.net/?article=14038

Ein sehr gelungener Text

A. Aber darf man jetzt schon die Ära AMD64 einläuten? Darf man wirklich davon ausgehen, dass der Zug AMD64 unaufhaltsam rollt? Die erste öffntliche Beta von MS Win64 ist für Spiele ja noch eine Krücke.

B. Auch ist noch nicht klar, wie breit eine Win64 für AMD64 eingeführt wird. Oma ist bestimmt nicht glücklich, wenn ihr ein fettes Server OS vor die Nase vorgesetzt wird.

1. Bin ich zu pessimistisch?

2. Verliert Intel wirklich Muskeln?

3. Werden die anderen wirklich bald abgeschlossene Vergangenheit sein?

4. Hat Intel eventuell nicht doch eine eigene Abart von X86-64, nur will sie keiner haben?

MFG Bokill

Nachtrag: Thema X-BOX2
1. Ist es alles nur Zufall, dass die X-BOX2 einen PowerPC enthalten soll?
Und 2. "zufällig" ein spezieller WinNT Kernel dies unterfüttern soll?
Ist es 3. wirklich alles "Zufall" , dass die letzten Ankündigungen von MS und IBM, SUN sehr AMD-freundlich waren?


Die Endgültige Konsequemz aus den letzten Handlunge ist zweierlei.
1.Eine potentielle Domianz im High-End Markt von intel durch den Itani(c)um wirksam verhindert.
2. MS kann sich auch auf andere Architekturen besinnen.


Nette Gedanken im Inquirer mit folgender Meldung vom Mittwoch 03 März 2004, 20:02
If Longhorn runs on Power PC, what need for Intel?
A domino theory for our day


By Esther Tigre: Mittwoch 03 März 2004, 20:02

IT'S LIKELY that the multi-million OS experiment currently known as Longhorn will also run on Xbox 2s, posing a serious question for Intel in the future. Whither?
Sources claim that Microsoft is shoehorning faux screenshots of the GUI into the public domain, only to bring out something completely different when the day of the launch is that much nearer.

Yet if Microsoft decides that Longhorn runs not only on future Xboxes but on the Power PC platform as well, there's plenty of room to speculate that the Vole could acquire Apple and dump Intel, without the antitrust forces getting too excited.

Because Linux currently has more market share than Apple.

The Power PC licence Microsoft has could allow it to take designs from IBM to Samsung or other big fabrication centres and play the foundry game to its heart content.

Just the possibility of Microsoft dumping the entire Intel platform and moving to the Power PC instead must be causing shivers in Santa Clara, we'd suspect.

The Wintel partnership has survived for a long time, but it could be that it won't be too long before never the twain shall meet, again. µ
http://www.theinquirer.net/?article=14497
 
Zuletzt bearbeitet:
Interessant ist, dass hier ein 64 Bit Win XP mit anderer Hardware als hier bis auf einen Spieletest überall schneller läuft, als in 32 Bit.

Edit: Es scheint also wirklich auf die eingesetzte Hardware bzw. deren Treibern zu liegen, was heißt, dass 64 Bit doch erhebliches Potential haben.
 
Die zusätzlichen Register bringen auch vieles - das ist wohl eines der größten Mankos von IA32. 4 Register sind einfach nicht mehr Zeitgemäß.
Es ist zwar dank großer L1 Caches kein Problem auf die Daten fast genau so schnell wie auf ein Register zuzugreifen, aber da muss vorher mindestens eine Integer Berechnung durchgeführt werden - und die braucht Zeit.
 
Hab die Links hier nicht parat, aber:

- DirectX liegt als 9.0b vor und in der 32 Bit-Variante
- Es gibt auch ein deaktiviertes DirectX 64 Bit
- MS verwendet irgendwelche rudimentären Treiber

Also, DirectX in einer 32 Bit Version, welche dann auf die Hardware im 64 Bit Raum zugreift ist eine ziemliche Krücke.
Wer weis, wieviel Softwareemulation, statt Hardware des Grafikchips da noch werkelt.


Fazit1: 3D-Benchmarks kann man noch vergessen, da muß erst DirectX richtig sitzen.
oder
Fazit2: MS hat mal ein 64 Bit DirectX aufgespielt und der A64 geht zu gut in Führung.
 
32bit Software läuft nicht wesentlich langsamer oder unsauberer als 64bit Software - das ist nicht so wie damals bei 16/32bit, da gabs noch den Unterschied Realmode/Protected Mode, und der hat die Sache eigentlich erst kompliziert gemacht.
16bit Protected Mode Code (ja, gibts auch) könnte man völlig sauber und problemlos in ein 32bit oder 64bit OS integrieren - genauso auch 32bit Code.
 
@SlotA
Ja ja gewisse Member an anderen Orten verstanden es ja vorzüglich einige Sachen besonders geschickt anders zu verpacken. Sah der Wahrheit verdammt ähnlich und war alles ander als dies.

Erstaunlich finde ich derzeit, dass noch nirgens eine Analyse zu den Sogannten 30/31 Stufen des Prescots heraus ist.

Auch dass der Trace Cache dennoch die alte Grösse hat, obwohl Chip Architect sehr sinnig begründete weswegen der Trace Cache grösser sei...

Intel hat sicherlich noch einige Karten in der Hinterhand, aber die Leckströme des Prescotts haben wohl dem Entwicklerteam schon so manche schlaflose Nacht beschert, das war ursprünglich bestimmt so nicht geplant worden.

Spannend scheint für mich die Frage, wie AMD die Umstellung auf 0,09µm meistert. Nicht SOI war das Problem beim derzeitigen Hammer, sondern LowK... aber dieses Problem scheinen sie aus der Welt zu haben, andere führen LowK ja auch schon mit 0,09µm ein.

Weiter spannend ist die Einführung von den Pizzawafern mit 300mm. Da hat Intel echte klare Vorteile...

Aber was wird Intel weiter machen?!

MHz bis zum Abwinken, aber geht dies derzeit wirklich?

AMD64 einsetzen, aber verliert man wirklich nur Glaubwürdigkeit?

Läuft AMD64 wirklch sicher auf den vermuteten Lösungen von Intel?

Denn obwohl Intel AMD64 einführen könnte, so ist zu vermuten, dass eben nicht fett auf den Intels prangen wird
"NEW inside with AMD64"


Dies sind Sachen, die das Patentaustauschabkommen regelt.
Nur verdammt noch mal, niemand in der Öffentlichkeit kennt die Inhalte dieser Papiere. Es sind nicht mal Presseversionen heraus

Genauso wichtig ist aber diesesmal, dass der Markt schon vor Intel reagiert, sie bauen AMD64 beständig ein. Und genau dies ist ein Novum in der Geschichte von AMD. Die Lösungen von AMD werden erstmals trotz allen Wiederständen dennoch eingebaut!

Und eben weil der Markt schon vorher agiert, muss Intel reagieren... nicht der beste Start für einen Technologieführer.

AMD wird sicher alles auf den Hammer setzen, Ende 2004 wird vermutlich fast die gesammte Produktion dem Hammer gewidmet sein. Und mit 0,09µm rückt ein extra teurer Spezial Opteron (Wirklich nur für Server) in Reichweite.

Programme und Anwendungen werden dann sicher vorliegen können, denn in der Zwischenzeit haben Tausende schon Software für Mehrfach-Opteronsysteme geschrieben. Ein Dual-Opteron-On-Die wird daher schon aus dem Stand sofort beschleunigen können...

Und wenn IBM, SAP und SUN eigens für Profisyteme und konsumenten Software kompilieren, dann kommt schon so einiges zusammen... die fleissige Linuxgemeinde erhöht natürlich den Leidensdruck von Intel.

Vermutlich hat MS auch noch nie so schnell für eine andere Systemarchitektur ein eigenständiges OS geschrieben. Für mich stellt sich nur die Frage wie breit MS damit herauskommt.
Wirklich nur für Server (Profis) oder auch für den Media*rkt DAU der auf grosse Zahlen steht.

MFG Bokill
 
Zuletzt bearbeitet:
Dabei darf man aber nicht außer Acht lassen, dass sich IA32 und AMD64 extrem ähnlich sind. Niemand spricht speziell von einem Unterschied zwischen x86 Realmode und IA32 (Protected Mode).
Die Unterschiede hier sind aber deutlich größer als zwischen IA32 und AMD64. Große Passagen von Windoows musste MS sicherlich nur einfach neu durch den Compiler jagen.
 
Spannend scheint für mich die Frage, wie AMD die Umstellung auf 0,09µm meistert. Nicht SOI war das Problem beim derzeitigen Hammer, sondern LowK... aber dieses Problem scheinen sie aus der Welt zu haben, andere führen LowK ja auch schon mit 0,09µm ein.[/ B]



Sorry, das wird langweilige wie eine TV-Wiederholung.

AMD kooperiert seit Anfang 2003 eng mit IBM und die 90 nm Inbetriebnahme in NY/Fishkill wird von AMD-Fertigungsingenieuren seit Monaten begleitet. In DD wird die Einführung dann ein 'Witz', wobei AMD lt. letzten Erklärungen gleich 2/3 der Produktion umstellen wird.

Bei 300 mm / 65 nm / 45 nm wird der Fertigungsprozess eh komplett von der gleichartigen IBM-Anlage übernommen, welche bereits Mitte 2005 fertig sein soll.

Fazit: Die Spannung ist (fast) völlig raus und lediglich örtliche Details (Anlage Fab30 und Fishkill unterscheiden sich eben deutlich) incl. 200 mm statt 300 mm sind noch zu beachten.
 
Hatten wir das schon?

Seit kurzem offiziell laufen die UltraSparc4 an:
Damit erreichen die Fire-Systeme etwa auch die doppelte Performance. Natürlich setzen sie auch neue Performance-Maßstäbe, etwa bei dem in dieser Szene so ungemein wichtigen SAP-SD-Benchmark. Mit 5050 Usern (bei nur 1,72 s Response-Zeit) ist eine Fire E20K mit 36 UltraSparc-IV-Prozessoren mit 1,2 GHz jetzt auf der 2-Tier-Liste im Gespann mit Oracle 9i als Datenbank einsam an der Spitze, um ein Viertel schneller als das schnellste - Ita .. Itani, wie war doch der Name (O-Ton McNealy) -- Itanium-2-System, NEC Express 5800 mit 32 Itanium-2-Prozessoren mit 1,5 GHz Takt und mit Microsoft SQL Server (4040 User, 1,95 s Response-Zeit).

...udn natürlich kommt auch auch der Opteron

Und so stellt sich Sun als Ergänzung zu den UltraSparcs-Linien mit voller Macht hinter die Opteron-Server. Keine "White Boxes" wie IBM und Co wolle man einfach durchschieben, sondern den Opteron als Engine für die Zukunft einbauen -- eingebunden in ein Hard/Software-Konzept mit 64bittigem Solaris 10 mit N1 Grid Containern. Zunächst mit dem Dual-Opteron-System v20z -- der schon ab 2795 US-Doller als laut Sun preiswertester und schnellster 64-Bit-Server überhaupt zu haben ist, im nächsten Quartal auch als vierfach- und später als achtfach-Server. Und sollte es mal mit den UltraSparcs nicht so recht weitergehen, so hat Sun mit den Opterons eine Art Rückversicherung. Und AMD kann sich freuen, dass der Einstieg in die große Serverwelt nun doch schneller vonstatten geht, als von vielen vermutet. Intels Itanium -- so sieht es nicht nur Scott McNealy sondern auch so mancher neutraler Analyst -- hat hier schon nahezu verspielt

http://www.heise.de/newsticker/meldung/44503


Hier steht noch was zum Opteron+Sun
http://www.golem.de/0402/29698.html

(Ich muß die offz. Sachen raus suchen, intern läuft natürlich schon länger der U-Sparc 4 auf den SF15K.


Bei der Heise.de Meldung haben wir natürlich auch gleich das Problem der UltraSparcs....
Mit nur 66 Millionen Transistoren ist er nicht besonders riesig -- kaum größer als ein Pentium-4-Northwood. Er hat auch nur "normalgroße" L1-Caches für 64K Daten und 32K Instruktionen pro Kern, so wie der UltraSparc IIIi auch. Mit 108 Watt (bei 1,2 GHz, 1,35 V) ist er recht energiehungrig.

Ist im Serverraum zwar recht egal, aber die werden trotzdem schön warm da zumindest schon der US 3 nur unter passiven Lüftern sitzt und von deftigen 120mm High-Speed-Lüftern (sind AFAIK 120, könnten auch 150 sein) auf Temp gehalten werden. 70-80°C ist die durchschnittstemp, falls es einen interessiert.

MFG
 
@Mogul

Hatte etwas die SUN und IBM Schiene schleifen lassen... beide haben ja auch gan feine CPUs in ihrem Zoo.

Und SUN orientiert sich langsam an AMD. Das Strategiepapier von XBIT-Labs beschreibt ja genau diese Entwicklung.

Meiner Meinung nach sind diese Papers immer noch echte Highlights des letzten Jahres.

Alle Journalisten die nun so etwas ähnliches schreiben, stümpern, meiner Meinung nach, dem Original hinterher. Aber wenn man etwas nicht kennt, dann kann man ja auch nicht kopieren... man kann nur deutlich vor der Zeit liegen oder irgendwann mühsam hinterherhecheln.

Das nächste Inteldesaster deutet sich nun an, der PR GAU... aus Fanboygehabe der AMD Fans wird die Erkenntnis, dass einige Ideen von AMD gar nicht so doof sind... und der Ruf von AMD als billiger Plagiator von Intel CPUs dürfte spätestens mit dem K8 verstummt sein.

Keine guten PR- Bedingungen für Intel und wenn HP gar den K8 irgendwie aufnímmt, dann müssen schon echte Spitzenkräfte in den Werbeagenturen für Intel sitzen.
HP war ja so etwas wie der Schildknappe, wie Dell der Schwerträger für Intel war.

MFG Bokill
 
@rkinet

Sehr nettes Doku http://news.com.com/2100-1006-5159067.html

Ich denke das Patentaustausachabkommen beinhaltet auch die Verabredung, praktisch alles dazu nicht zu kommentieren/veröffentlichen.

Ich vermute ebenfalls, dass es eben nicht um Lizenzzahlungen geht, sondern um das Nutzen von Technologie des anderen.

Wichtig für Intel war, dass es nie wieder einen Sockelkompatiblen AMD für Intelplattformen gibt... könnte auch glatt umgekehrt sein.

Wenn einer von ihnen ein Feature für den Markt einführt, dann wird dem "Erfinder" ein Zeitvorteil eingeräumt... und der Konkurrent darf nicht direkt mit den Features werben.

So gesehen erwarte ich dass Intel eben nicht mit einem AMD64 Kompatiblen herauskommt der fett rot leuchtend mit AMD64 wirbt.
So wie AMD halt nicht direkt damit wirbt, dass ab den AthlonXP`s SSE verstanden wird.

MFG Bokill
 
@Rkinet
"
AMD kooperiert seit Anfang 2003 eng mit IBM und die 90 nm Inbetriebnahme in NY/Fishkill wird von AMD-Fertigungsingenieuren seit Monaten begleitet. In DD wird die Einführung dann ein 'Witz', wobei AMD lt. letzten Erklärungen gleich 2/3 der Produktion umstellen wird.
"

IBM's 90nm Prozess hat in Bezug auf AMD kaum Auswirkungen. Klar arbeiten Sie zusammen,
aber die Systembibliotheken wurden schon vor langer Zeit erstellt, hier hat man
vielleicht in einzelnen Punkten Optimierungen vorgenommen, dass wars ...

Woher nimmst Du die Zahl von 2/3. Imho hat sich AMD hier in keinster Weise derart
präzise geäußert. Das eine Umstellung viel schneller als bei Intel verläuft ist
klar, aber selbst bei AMD dürfte diese sich über 3-4 Quartale erstrecken, wenn man
vom Voll"umbau" sprechen möchte. Desweiteren ist es mir immer noch nicht klar, was
nun schlussendlich mit den XP's passieren wird. Diese sind ja aufgrund des Prescott-
desasters doch noch länger mehr als nur wettbewerbsfähig, da aus ersterem Grund der
Celeron nicht so schnell rampen "darf" und sich daraus positive Seiteneffekte sowohl
beim XP Volumen, als auch bei den ASP's ergeben ... das aber jetzt nur ganz kurz
umrissen - Details bedürften einer längeren Erklärung.


"
Bei 300 mm / 65 nm / 45 nm wird der Fertigungsprozess eh komplett von der gleichartigen IBM-Anlage übernommen, welche bereits Mitte 2005 fertig sein soll.
"

Wenn ich mir die Schwierigkeiten beim 90nm Prozess und die damit verbundenen Kosten
ansehe, dann erscheint eine baldige Umsetzung von 65nm mehr als nur eine Wunsch-
vorstellung, sowohl bei IBM/AMD, Intel und auch im besonderen bei den grossen Foundrys.
Es dürfte wohl derzeit schwer zu sagen sein, ob AMD selbst FAB30 noch gen 65nm
konvertieren wird, derzeit gehe ich aber davon aus, dass der 300mm 65nm, CU + SOI,
strained Silicon + Low-K Prozess nicht FAB30 kompatibel sein wird und damit erst in
FAB36 Anwendung finden wird. Hinmit wäre das also nicht 2005 sondern wohl eher 2006
und das dürfte auch der Zeitrahmen sein, in dem es auch von IBM 65nm Volumenprodukte
gibt - alles andere ist Marketinggeblubber.

BUGGI
 
Jedenfalls was den Deal mit Compaq angeht...

Da waren doch Pläne von intel mit Compaq geschlossen worden, nachdem die Entwicklungsabteilung von Alpha mit den Patenten Haut aunbd Haaren aufgekauft wurden...
c't 14/2001, S. 24: Prozessoren

Andreas Stiller
Prozessorgeflüster

Buy, Buy Miss American Pie
Das wars denn wohl: Bye, bye Alpha, Rest In Peace. Intel machte den Weg frei für IA-64, indem es Compaq offenbar mit gewichtigen Argumenten überzeugen konnte, nur noch auf IA-64 zu setzen. Doch wie das Leben so spielt: Trauer hier und Freude da zum Beispiel durch reichlich Nachwuchs in der 0,13-µm-Familie.

Nach dem Motto: If you can’t beat ‘em, buy’em (wenn du sie nicht schlagen kannst, kauf sie) hat Intel das Problemfeld Alpha mit einer Hand voll Dollar unbekannter Größe ad acta gelegt. Compaq überträgt die vor drei Jahren von Digital eingekaufte Alpha-Technologie samt Compiler, Tools und Entwickler-Team an das kalifornische Prozessorhaus und verpflichtet sich, ab 2004 nur noch IA-64 bei den 64-bittigen Servern einzusetzen.
...
http://www.heise.de/ct/01/14/024/

Tja ja was alles so in drei Jahren so abläuft... und nun der Treppenwitz von gestern. intel ist bei AMD64 dabei *chatt*

Irgendetwas ist da aus dem Ruder gelaufen... Die Realität?

Aber der Deal beinhaltete noch wesentlich mehr...
...
Vor allem das geplante Design der übernächsten Alpha-Generation (EV8) dürfte Intels Einkäufer interessiert haben. Dr. Joel Emer, eine weitere Spitzenkraft aus alter DEC-Schule, hat hierfür ein sehr interessantes Design mit vierfach Simultaneous Multithreading (SMT) entwickelt, das die Fachwelt aufhorchen ließ. EV8 wird nun definitiv von Compaq begraben - doch auch wenn sein Alpha-Leib tot ist, dürfte seine SMT-Seele bei Intel weitermarschieren
...
Und Joel Emer ist nun schon lange bei intel und hatte auch hochinteressante Dokus erstellen lassen. Wer dort unter Hyperthreading sucht wird dort Joel Emer finden.
Wann war das SMT von intel eingeschaltet worden?

MFG Bokill
 
Die Fertigungsingenieure sind in Fishkill und können so den 90 nm Prozess übernehmen.
Die Fab30 wird nur bis 90 nm, bzw. eher ein 90/130 nm Mix (ähnlich bei Intel, nur unterste Lage in 90 nm) umgerüstet.
Für 65/45 nm ist die Reinraumqualität nicht gegeben.
Falls IBM ein kostengünstigeres Sdt. (ohne strained) Verfahren für 90 nm hat, könnte AMD natürlich diese nutzen.

Allerdings ist strained SOI, falls gut funktionierend, gut umsetzbar.
Die Wafer werden zunächst per Germanium-Einbau gestreckt, wie bei Intel. Allerdings wird vor dem Verbacken mit dem zweiten Wafer, das Germanium ersetzt. Fertigungstechnisch mit Sicherheit anspruchsvoll, aber kein Neuland wie das strained silicium bei Intel, wo Germanium auf dem Chip bleibt und das elektrische Verhalten deutlich verändert.

Meiner Auffassung nach, spricht technisch nichts gegen 90 nm strained SOI in DD. Lizensprobleme sollte es wg. des Abkommens von 2003 eigentlich auch nicht geben.
Und strained SOI würde die bisher unerklärte Verzögerung erklären, obwohl AMD ja seit vielen Monaten fertige 90 nm Chips hat.


Die Fab36 wird 300 mm Wafer und eine 65 nm, ca. 1-2 Jahre später 45 nm, Anlage werden. Fertigungstechnisch eine 1:1 Kopie von IBM.
 
Frage ist nur, ob berits im 'CG' enthalten, oder erst bei 90 nm.

Gegen 'CG' spricht, die A64-Docu Stand 19.2.04, welche zwar 2T aufführt, sonst aber nichts.

Für 'CG' spricht, daß AMD dieses Stepping wohl noch lange für low cost 130 nm CPU nutzen wird und kaum dauernd das 'Fehlen SSE3' mitschleifen will.

Im Übrigen, dürfte SSE3 für die Schaltungsentwickler ein Bonsai-Fisch gewesen sein.
 
@Rkinet
Interessant, aber nicht die Beantwortung meiner Frage. Warum sollen
65nm nicht mit der alten FAB funktionieren mit der Begründung Reinraum-
qualität. Ich lasse mich an dieser Stelle zwar belehren, habe solche
Aussagen aber noch nirgends vernommen. Vielmehr dürften die Probleme,
wenn man Sie so nennen möchte, bei 65nm eher die Tools sein, welche
dann quasi sämtlichst für 300mm vorgesehen sind. Da ja AMD und IBM
bei 65nm den gleichen Prozess verwenden, kann man davon ausgehen, dass
FAB30 wohl nicht gen 65nm gehen wird - das letzte Wort ist hier imho
aber noch nicht gesprochen.
Ich bin mir nicht so sicher, ob AMD grosse Experimente in Bezug auf
strained Silicon fährt, jedenfalls nicht was die nahen Zeiträume
anbelangt und nicht bei 90nm. Eine Übertragbarkeit von IBM Seite
dürfte kaum oder nur sehr schwierig sein, ohne jetzt Detailkenntnisse
von AMD selbst zu wissen. Das Transistordesign ist doch eines der
bestgehütesten und schwierigsten Dinge in der ganzen Chipindustrie
mit recht langen Vorlaufzeiten. Man nehme noch eine kleine Prise Salz
(Strained Silicon), um die Würze ein wenig zu verbessern, dass
dürfte in meinen Augen nahezu ausgeschlossen sein. Aber über dieses
Thema dürfte man lange diskutieren können, ohne zu einem Ergebnis
zu kommen, denn Herr Gütter dürfte wohl hier im CHAT nichts preis-
geben und selbst wenn, dann ... ;-)

Meiner Meinung nach wird es bei 90nm zwei recht grosse Sprünge
geben mit dem derzeitigen "groben" Hammerdesign.
Derzeit problematisch sind die Faktoren, welche schon in 90nm
eingeflossen sind, also dass, was das CG schon kann und eventuelle
Verbesserungen, so, wie sie neulich bei Aces zu lesen waren, wie
z.B. die Integration eines DDR-II DRAM Controllers oder Ver-
besserungen bei der Sprungvorhersage. Summasummarum dürfte die
erste 90nm Version quasi nur ein DIE shrink werden und wird damit
auf etwa 115mm^2 - habe die genaue Zahl nicht mehr im Kopf- gehen. Hinzu
wird dann eine abgespeckte 512kB Version kommen, wobei man die DIE Fläche
schon etwa abschätzen kann. L2 derzeit ca. 45% -> bleibt dann so
-> ergo 1MB L2 (90nm) 50-55mm^2 -> 512KB gleich 25-28mm^2 Ersparnis
- sprich 90mm^2 DIE.
Da Intels SRAM Cachezelle zu den kleinsten gehört und IBM ebenfalls
ähnliche Regionen aufweisen kann - um 0,5 (90nm) - denke ich, dass
es in einer späteren Hammerversion ein geändertes L2 Design (IBM) geben
wird, welches deutlich kleiner werden dürfte. Man kann wohl allein
hier von mindestens 20mm^2 Ersparnis ausgehen, wobei ich in dem
Gesamtdesign mehrere Erweiterungen sehe, vielleicht hieraus die erste
DUAL Core Variante. HT2 Implementierung, DDR-II sowieso und eben
die ganzen "Kleinigkeiten", Stichwort SSE3, welches ja schon im
CG Stepping vorhanden sein soll - nur der Glaube fehlt mir ...
D.h. in Q3-2004 beginnen wir mit der ersten Version und lassen im
neuen Jahr 2005 (vielleicht ab Q2/Q3) die zweite grundlegend über-
arbeitete Hammerversion folgen. Eine DUAL Lösung ist dann mehr
als vorstellbar, ein Erscheinen dürfte wohl nur davon abhängig
sein, was Intel so macht. Schätzung DUAL Core mit verbessertem
L2 - 2x512KB L2 + 2 Core's + Bridge -> (15+15)+(60+60)+(?)=150-160mm^2.
Wenn man sieht, dass derzeit in 130nm über 180mm^2 massenfähig
sind, dann erscheinen später 150-160mm^2 durchaus im Bereich des
Vertretbarem, auch wenn ich diese Variante so schnell nicht
sehe.

BUGGI
 
Zuletzt bearbeitet:
AMD hätte gerne die Fab30 auf 65 nm umgerüstet, aber dazu hätte der Betrieb gestoppt werden müssen und vieles, incl. Reinraum geändert werden müssen.

Jetzt wird eine Technologie-Kopie der 2005 in Betrieb gehenden IBM-Anlage in Fishkill/NY als Fab36 kommen.
AMD-Fertigungstechniker sind bereits seit Monaten bei IBM und tunen die IBM-Fertigung und entwickeln an 65 nm und 45 nm (Fab36 ist auch für 45nm ausgelegt).

Strained SOI war vor Monaten noch für 45 nm geplant, jetzt fertigt IBM (unter den Augen von AMD) bereits in diesem Verfahren in 90 nm.
Das Verfahren ist, anders als das bei Intel mit Rest-Germanium auf dem Chip, deutlich anspruchloser. Natürlich hat es auch Auswirkungen auf das Transistordesign, aber die Transitorabmessungen (ca. 50 nm) und die Veränderung der Atomstruktur beim Silicium (1/10 nm ?) sind deutlich in anderen Dimensionen.
Funktioniert strained SOI stabil, ist es praktisch egal ob für 130,90,65 oder 45nm im Einsatz. AMD hat daher die Auswahl.
 
Aktuelle News-Meldung, wie es im Hause Intel zur Entscheidung Pro x86-64 gekommen sein könnte:
http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=148385

Demnach hat Intel nur unter MS-Druck eine x86-64 kompatibele Version in den Prescott integriert.

Diese Verhalten wirft schon ein paar strategische Fragen auf:

Hatte Intel überhaupt jemals geplant, einen x86-Prozessor mit 64 Bit zu entwickeln?

Wollte Intel mit dem Prescott (und evtl. einem weiteren 32 Bit Nachfolger) klammheimlich die 32-Bit-Ära (x86) ausklingen lassen? Performanceanwender wären ja dann irgendwann gezwungen gewesen, auf die IA64-Linie umzuschwenken. Das hätte wohl das sichere Aus für AMD bedeutet. Die hätten dann mit ihren Chips bestenfalls ein paar Taschenrechner bestücken können. Dumm nur, dass der Itanium nicht so performt, wie sich Intel das sicher gewünscht hat. Auch dumm, dass der Konkurrent 64Bit zu x86 kompatibel macht und noch dazu hervorragend performt. Sowas (von Intel) nennt man wohl Rohrkrepierer.

Welche Rolle spielt eigentlich MS bei diesem Spiel? Das Zünglein an der Waage? In diesem Fall - sicher.
Doch wieso? Es wäre doch auch für MS besser, mit einem kompletten Systemwechsel die unliebsame Linux Konkurrenz auf einen Schlag loszuwerden. Besonders im Serverbereich! Zumal das IA64-BS ja schon da ist. Oder herrscht auch hier die Angst, sich selbst ins Abseits zu stellen? Ist neben den Kriterien Geschwindigkeit, Benutzerfreundlichkeit, Sicherheit nicht doch letztendlich die KOMPATIBELITÄT das Killerkriterium für künftige Hard- und Software? Daran kann auch ein Quasimonopol wie das von MS nicht vorbei - schliesslich beruht es ja gerade darauf.

Intel hat diese heilige Kuh geschlachtet und muss nun Lehrgeld zahlen.

@Bokill:
Vielleicht nimmst Du ja in den Threadtitel noch MS mit auf? Gerade das aktuelle Bespiel zeigt doch, dass jedwede 64 Bit Strategie ohne Softwareunterstützung zum Scheitern verurteilt ist.

dD
 
Zuletzt bearbeitet:
Also Intel hatte wohl nicht vor, den Itanium auf dem PC-Markt durchzudrücken. Damit würden sie sich ins eigene Fleisch schneiden, weil sowas den Preis massiv nach unten holt. Sie hätten eher eine eigene 64bit-Erweiterung für x86 heraus gebracht. Da hat aber MS einen Riegel vorgeschoben, weil sie sich weigern, noch eine Architektur zu unterstützen (womit sie sogar mal Recht haben).

Die unliebsame Linux-Konkurrenz wäre MS auch mit einem kompletten Systemwechsel nicht los geworden (ganz im Gegenteil). Bis jetzt lief jede neue Architektur zuerst unter Linux, und erst später unter Windows.
 
hätte die Trolle wieder auf den Plan gerufen.

Darum ja nicht nur AMD vs intel sondern auch SUN und IBM.

MS hätte SUN und IBM wieder genullt ;)

Ausserdem wollte ich hardwarenah bleiben.

Der Threadtitel und Inhalt war ja am Anfang simpel AMD vs intel gestrickt. Aber folgende Paper sollte man sich reinziehen...
2 Nette Perspektivartikel

Meiner Meinung nach, mit die gelungensten Artikel des letzten Jahres. Etwas weiter unten biete ich ja noch ne gewisse Dienstleistung an (inoffiziell)...

Einige entwickelte ja daraus weitere Threadideen.

Die Stichworte sind SMT, CMP, SMP, CMS ... und da wird noch so einiges kommen. MS muss natürlich darauf reagieren, die Non-NT Geschichten von MS sind ja vollkommen untauglich mehr als eine weitere CPU zu nutzen (und wenn die zweite CPU auch nur simuliert ist).

Marktmässig ist es hochinteressant, dass der Opteron nun bis auf Dell bei allen zu haben ist.
Dummerweise hat Dell von allen aber den grössten Zuwachs an Marktanteilen in der Sparte Server/Workstation. IBM kann sich auch nich beschweren. In dem IBM Link werden freundlicherweise eben alle Marktteilnehmer genannt. ;)
SUN jedoch musste wieder weitere Einbrüche in den Marktanteilen hinnehmen.
Spannend ist, ob die Kursänderung hin zum Opteron dies ändern kann.

SUN droht zur Zeit immer noch das gleiche Schicksal wie DEC mit ihrem Alpha. Wobei DEC ein wunderschönes Rennpferd nich hübsch verkaufen konnte. Quasi als letzter Verzweiflungsakt könnte man die damalige Attacke mit FX32! so bezeichnen.

Danach wurde der Alpha nur noch verscherbelt an Samsung (Lizenz) und Compaq (Übernahme/Aufkauf)

DEC verstand es nicht aus ihrer Ecke herauszukommen. SUN versucht es seit geraumer Zeit. SPARC + x86 und auch Solaris + Linux (beides aber UNIX-Derivate).
Seit allerjüngster Zeit aber auch AMD64 + Opteron.

Von der technischen Idee, lebt im Form des Hammers, der DEC`s EV-7 weiter ... auch wenn statt der schlichten Eleganz des Alphainstruktionssatzen (wie ist der Name eigentlich für die Alpha ISA? ) ... nun der x86 Ansatz drinsteckt. (x86 = Gegenteil von Eleganz)

Die Ideen von Trennung des Busses vom Speicher, Zwischenverbíndungen zu anderen CPUs (Stichwort North,South, East, West) ... Systemaufbau ähneln sich verdammt stark.
AMD hat sehr früh viele Ideen übernommen, bin mal gespannt wann endlich auch bei intel endlich Alpha-Geist einkehrt.

Aber vermutlich mangelt es intel an zwei entscheidenden "Rohstoffen".
1. Zeitknappheit
2. Geldmangel

Der ARM wurde genau mit diesen Rohstoffen geboren... Zeitmangel und Geldmangel. So wurde ein CPU Kern geschaffen, der unter den Bedingungen "kepp it stupid and simple" sehr erfolgreich wurde.
Neben den MIPS sind dies wohl die erfolgreichsten CPUs weltweit (Stückzahlen).
Das Motto der Dec`s Alphas war vermutlich dann "keep it elegant, simple, powerfull, scalelable"
Entenrennen zeigt ja wie leistungsfähig solche Industrieprozessoren nun geworden sind.

MFG Bokill
 
Zuletzt bearbeitet:
@derDUKE

Mein Reden ;)

Pat Gelsinger hatte ja mal ein fettes Büchlein geschrieben wie der 386 funktioniert. Nebenbei wird aber auch deutlich, dass eben die Droge Kompatibilität Wunder bewirken kann.

Stichwort " Crush " für die Suchfunktion.

Würde mich gar nicht wundern wenn P.Gelsinger das interne Projekt Yamhill schützte und promotete.

Und so still war der Abgesang von intels x86 ja gar nicht. Intel sagte ja selber, dass nach dem P4 nichts weiter zu erwarten sei. Die Begründung ist auch recht simpel. Irgendwann ist es eben doch sehr günstig Abermillionen Transistioren zu verbraten.
Und es war erklärte Absicht so wenig Patente zu teilen, wie nur möglich. Es musste demnach etwas neues geschaffen werden .
Nur so kann man sicher alle Epigonen (AMD, VIA, Transmeta, IBM, SIS... )auf Abstand halten.
Aber selbst dieser Ansatz kostete Geld, da EPIC doch nicht so einmalig war wie gedacht ;)
Siehe auch Thread Auge um Auge Zahn um Zahn; IT Rechtsstreitigkeiten und bsonders folgenden Intergraph/PIC-Link.
So gesehen ist selbst der Patentansatz von Intel mit HP schon ein Rohrkrepierer. Was hindert heute Intergraph daran Rechte von PIC auch an andere zu verkaufen?

@PuckPoltergeist
Ich denke schon dass intel/HP irgendwann EPIC in den Masenmarkt drücken wollten. Damit wären langfristig alle "Gegner" nur noch Taschenrechner CPU- Hersteller geworden.
Das war bestimmt die wahre Absicht. Saubere elegantere Instruktionsfamilien gibt es ja schon.
Wer den Markt bestimmt, bestimmt auch die Preise.

Marketinggift
Yamhill war demnach nur ein Notnagel. Ein Notnagel für etwas was nicht sein kann, was nicht sein darf.
Und so wie die Japanalyse klingt, so war dieses Yamhillprojekt auch nicht AMD64 kompatibel... es war demnach schon vom Grundkonzept her eine Gegenaktion zum Vergiften des Gegners.

Standards
Man möge sich noch die Marketingschlachten zu Video2000, Betamax, VHS vor Augen führen.
Glücklicherweise hatte sich dies bei der CD anders ergeben, theoretisch hatte Thomson/Telefunken ein vergleichbares Format.


Money makes the world go around
Für einen reinen Liebesakt halt ich die MS Aktion aber nicht. MS hatte ja schon für den Itani(c)um ein OS zusammengefrickelt. Man will ja bei der Party dabei sein. Dank der Komplexität dürfte die Entwicklung alles andere als leicht und billig gewesen sein.
Und wenn einer neben HP und intel Überblick hat über den Itani(c)um Markt, dann MS da MS die Software liefert.
So gesehen ist die Erklärungg von MS nicht nur eine Absage gegen Yamhill sondern sogar möglicherweise eine gegen den Itani(c)um.

MS will Betriebssysteme und Software verkaufen... nicht nur entwickeln und darauf sitzen bleiben bis Schimmel auf dem CD-Tray wächst.
Und sie wollen Resourcen intern sparen, da würde ein ix86-64 nur die Margen zerfressen.
Es ist demnach nur eine Kaufmännische Entscheidung gewesen. Keine Liebeserklärung! Die Stückzahlen vom Itani(c)um waren aber bestimmt auch eine Entscheidungshilfe ;) .

MFG Bokill
 
Zuletzt bearbeitet:
Original geschrieben von derDUKE
Aktuelle News-Meldung, wie es im Hause Intel zur Entscheidung Pro x86-64 gekommen sein könnte:
http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=148385

Demnach hat Intel nur unter MS-Druck eine x86-64 kompatibele Version in den Prescott integriert.

Diese Verhalten wirft schon ein paar strategische Fragen auf:

Hatte Intel überhaupt jemals geplant, einen x86-Prozessor mit 64 Bit zu entwickeln?

Wollte Intel mit dem Prescott (und evtl. einem weiteren 32 Bit Nachfolger) klammheimlich die 32-Bit-Ära (x86) ausklingen lassen?


dD


Intel spricht ja noch heute von der 64 Bit Adressraumerweiterung und der mit x86-64 erledigten 4 GB-Barriere.

x86-64 ist zwar fähig, mit 64 Bit Adressen und 64 Bit-Daten umzugehen, aber gerade bei den Daten sind eher 32, als 64 Bit die Regel. AMD hat dies sogar im Design von x86-64 so berücksichtigt.

Intel hat schon vor Jahren gesehen, daß bei Servern die 4 GB-Grenze bald bedrohlich nahe kommt. Eigentlich können IA32-CPUs ja bis 64 GB ansprechen, aber die Umsetzung von 64 Gb max. RAM in Betriebssysteme führte früh zur Ernüchterung.
Meiner Meinung nach hatte Intel eine 64 Bit-Adresserweiterung in Arbeit, die den heutigen PAE-Mechanismus (die 64 GB) Betriebssystem-geeignet ersetzt hätte. Daten weiterhin in 32 Bit, wohl die Registerstruktur auch im 64 Bit Modus weitgehend ähnlich zu IA32. Auch der Name 'IA32e' hätte für einen 4 GB großen Untermodus dazu gepackt.

Zusätzliche Register, 64 Bit Daten wären weiterhin dem Itanium vorbehalten gewesen.
Und als 'unrichtiges' 64 bit, da ja ein 64 Adress / 32 Bit Daten (vgl. 8 Bit Ära: 16 Bit Adress, 8 Bit Daten) auch im Marketing klar isolierbar.

Ob sowas vernünftig gewesen wäre, ist Intel eh egal. Die haben den Pentium-M verfügbar, wollen aber lieber die Umwelt per BTX-Orgie weiterhin mit 'GHz inside' verpesten.
 
Zurück
Oben Unten