Santa Clara! Is there a problem??

jap... ich muss zustimmen AMD ist derzeit geschockt und Intel hat seinen schock gerade hinter sich. nur sehe ich bei AMD einen kleinen Unterschied. denn Intel musste jetzt Seine "fehlentwicklungen" über bord werfen um das richtige zum conroe zu vereinen. AMD hingegen, war im groben schon auf dem richtigen weg, muss also am grundlegenden weg nichts verändern, vielmehr Hat AMD in seiner "trödelphase" an der Spitze des Marktes neue Ideen gesammelt, die sich Später vieleicht als sehr rentabel herausstellen können (das lässt sich auch an den Ankündigungen von AMD ablesen, die derzeit erstaunlich häufig auftreten). Interessant wird dann ob sie die richtigen ideen gesammelt haben, oder ob doch das meiste in die falsche richtung geht.
 
... das lässt sich auch an den Ankündigungen von AMD ablesen, die derzeit erstaunlich häufig auftreten

was zum beispiel? ich habe in letzter zeit für mich nicht viel neues entdecken können...

lg
 
Hach, entsteht hier schon wieder amüsanter Lesestoff :)

Wenn Patente, die den jetzigen K8 betreffen (in größerer Zahl hier zitiert), hauptsächlich im Zeitraum 1998-1999 eingereicht wurden, und man sich dazu bewußt wird, dass diese vorwiegend während oder gar erst nach dem Designprozess eingereicht werden, kann man sich ja gut vorstellen, wie lang der Entwicklungsprozess ist und vor allem, dass er doch schon deutlich vor dem Erscheinen des K7 auf dem Markt begann.

Da war es meiner Meinung nach bei AMD üblich, durch "Pipelining" zweier CPU-Designs die entsprechenden Designteams für die versch. Stufen (von High Level Architecture bis zum Gate-Level) gut auszulasten. Während der K7 finalisiert wurde, konnten die anderen Subteams ja schon am K8 arbeiten. Und das war dennoch notwendig, obwohl der K8 ja offensichtlich vom K7 abgeleitet wurde. Nebenbei entstehen ja auch stetig neue Revisionen mit ebenfalls kleineren Änderungen, die auch nicht die volle Manpower benötigen.

Bei (entwicklungstechnisch gesehen) kleineren Neuerungen, wie z.B. Dual Core (die SRQ war ja schon dafür ausgelegt) mit praktisch gespiegelten Cores, was das Design etwas vereinfacht, muss es natürlich nicht genauso ablaufen. Der DC war eher schon recht früh im Designprozess mit vorgesehen worden.

Der K8 kam (verspätet durch Prozessprobleme) schließlich im Frühjahr 2003 heraus und nach dem bisherigen Muster begann die Entwicklung des K8L (und/oder bis jetzt verworfener Designs) irgendwann im Zeitraum 2000-2002. Jetzt haben wir 2006 und ein Erscheinen des K8L nicht zu spät im Jahre 2007 würde gut in das Muster passen. Davon abgesehen, dass ja auch schon (von Ruiz auch bestätigt) an der nachfolgenden Architektur gearbeitet wird, wirkt das alles weder hastig noch überstürzt oder gar durch Intels NGMA verursacht. Es ist auch schon lange her, als wir beim INQ von irgendwelchen verworfenen Designs bei AMD lasen, sofern es sie gab und wo uns auch die Gründe nicht bekannt sind.

AMD kann/konnte vor allem nicht so handeln wie Intel. Sie konnten es sich bis vor wenigen Quartalen überhaupt nicht leisten, soviele parallele Entwicklungen wie Intel am Laufen zu haben. Intel hat ja sowohl bei der Netburst-Reihe, als auch bei den P6-Nachfolgern separat Designs in den Designpipelines gehabt. Für Intel war eine Entscheidung, eine Linie zu kippen, überhaupt erst möglich, da die andere Linie selbst eigentlich gut für den Einsatz auf allen Märkten (Server, Mobile, Desktop) geeignet war. Nun sind sie da, wo AMD bisher war: eine µArchitektur für alles.

Noch etwas zur Verdeutlichung der Umstände:
High-end processor economics

Developing new, high-end CPUs is a very expensive proposition. Both the logical complexity (needing very large logic design and logic verification teams and simulation farms with perhaps thousands of computers) and the high operating frequencies (needing large circuit design teams and access to the state-of-the-art fabrication process) account for the high cost of design for this type of chip. The design cost of a high-end CPU will be on the order of US $100 million. Since the design of such high-end chips nominally take about five years to complete, to stay competitive a company has to fund at least two of these large design teams to release products at the rate of 2.5 years per product generation. Only the personal computer mass market (with production rates in the hundreds of millions, producing billions of dollars in revenue) can support such economics. As of 2004, only four companies are actively designing and fabricating state of the art general purpose computing CPU chips: Intel, AMD, IBM and Fujitsu. Motorola has spun off its semiconductor division as Freescale as that division was dragging down profit margins for the rest of the company. Texas Instruments, TSMC and Toshiba are a few examples of a companies doing manufacturing for another company's CPU chip design.
(http://en.wikipedia.org/wiki/CPU_design)

Da gehe ich nur nicht konform mit der Erwähnung kompletter Teams (von High- bis Low-Level-Design) pro Design, da z.B. die Architektur-Entwickler einfach nicht die ganze Zeit bis zur Marktreife an einer CPU arbeiten können.

Zum Vergleich mal der Entwicklungsprozess einer GPU (geschrieben von keinem INQ-Reporter ;)):
http://uk.theinquirer.net/?article=32876
 
Zuletzt bearbeitet:
a) Der K8 kam (verspätet durch Prozessprobleme) schließlich im im Frühjahr 2003 heraus und nach dem bisherigen Muster begann die Entwicklung des K8L (und/oder bis jetzt verworfener Designs) irgendwann im Zeitraum 2000-2002. Jetzt haben wir 2006 und ein Erscheinen des K8L nicht zu spät im Jahre 2007 würde gut in das Muster passen.

b) AMD kann/konnte vor allem nicht so handeln wie Intel. Sie konnten es bis vor wenigen Quartalen überhaupt nicht leisten, soviele parallele Entwicklungen wie Intel am Laufen zu haben. Intel hat ja sowohl bei der Netburst-Reihe, als auch bei den P6-Nachfolgern separat Designs in den Designpipelines gehabt. Für Intel war eine Entscheidung, eine Linie zu kippen, überhaupt erst möglich, da die andere Linie selbst eigentlich gut für den Einsatz auf allen Märkten (Server, Mobile, Desktop) geeignet war. Nun sind sie da, wo AMD bisher war: eine µArchitektur für alles.
a) Kann ich nur zustimmen. Zudem nützen AMD tolle CPU-Designs wenig, wenn nicht die dafür nötige Prozesstechnologie einsatzreif ist. Ich gehe mal davon aus, daß AMD schon vor Jahren den CPUs auch Prozesse (130/90/65/45/32nm) zugeordnet hat incl. Transitoren und deren Leistungsdaten (Takt, Verlustleistung)

b) AMD wurde durch den Schwenk weg von Netburst /BTX kalt erwischt. Erst vor wenigen Monaten hat AMD bestätigt, daß CPUs mit (zu) hohem Strombedarf bald unverkäuflich wären. AMD mußte also innerhalb weniger Monate die Roadmap neu ausrichten, also DSL / eSiGe nicht für Takt sondern für weniger TDP einsetzen.

AMD muss sich bei den Entwicklungen beschränken, allerdings hat man auch viel Gutes einfach in die Tonne gehauen.
Noch in 130nm baute man den 'Paris', der außerordentlich wenig Strom benötigte - eingestellt.
Der Winchester (90nm) machte als Mobil-CPU und im Desktop machte Verbrauchswerten Aufsehen, die vielleicht ein Single-Core Conroe mal packen könnte - eingestellt.
Dann kam Intel Mitte 2005 - jetzt wird bei AMD wieder auf low power zurück gerudert.
AMD gibt wenig Infos zum So.AM2 'Manila' raus. Es ist aber zu 'befürchten', daß es sich hierbei um einen K8 handelt, der alles für Stepping F enthält, nur teildeaktiviert. So 100mm2 wird das Ding schon haben, zu verscherbeln ab $50 boxed. Ein modifizierter Winchester (fehlt eigentlich nur SSE3 und DDR2-Controller) mit 256k-L2 (vgl. Paris) würde bei 70mm2 liegen und deutlich die Herstellungskosten senken bzw. Waferfläche für X2 erhöhen.
Es brauch also nicht viele Ingenieure um gute Produkte zu fertigen. Allerdings hat AMD systematisch die Desktop-CPUs vernachläßit (2004 auf einem Analytentag sogar so präsentiert) und sich voll auf Opteron und Mobilmarkt ausgerichtet. Nicht einmal eine nachvollziehbare Socket-Politik betriebt AMD beim Desktop.
Jetzt kommt der Geldbringer Desktop ins schlingern - hausgemacht durchs Management der AMD.
 
AMD hat sich hauptsächlich auf den Server und Mobil Markt konzentriert weil hier das große geld zu machen ist ganz einfach
 
AMD hat sich hauptsächlich auf den Server und Mobil Markt konzentriert weil hier das große geld zu machen ist ganz einfach
Da kann Intel jetzt aber per Woodcrest/Merom auch blockieren.

Die hohe SSE-Performance ist natürlich beim Server selten nötig aber ein nettes Abfallprodukt aus dem Conroe-Design. Ebenso profitiert der Merom vom 4-fach superskalaren Aufbau, das rein für Server oder Mobilchips wohl so nicht gekommen wäre.

Intel hat viel Geld für die Entwicklung des neues Designs ausgegeben, kann die Kosten aber auch auf 3 Produktgruppen verteilen.
Dennoch ist natürlich Desktop preiskritisch - http://www.heise.de/newsticker/meldung/76220:
Intel stehe zwar nun durch seine neuen Produkte im Leistungsvergleich mit AMD besser, doch der PC-Markt sei zunehmend weniger an Performance interessiert. Diese Marktkräfte stellten für Intel eine größere Herausforderung dar als für AMD

Rein auf den Desktop betrachtet ist also die zurückhaltende Haltung (K8L, 65nm-Einführung) nachvollziehbar. Das Problem entsteht in der Verknüpfung aller drei Produktlinien für AMD. Zudem ein kräftiger Imageschaden für AMD wg. Performanceverlust. Je Desktop-CPU verdient AMD wenig, aber ohne diesen Bereich wird der Gewinn in Summe aber mickrig und kann die Kosten der anderen nicht tragen.
 
Allerdings hat AMD systematisch die Desktop-CPUs vernachläßit (2004 auf einem Analytentag sogar so präsentiert) und sich voll auf Opteron und Mobilmarkt ausgerichtet.

Intel stehe zwar nun durch seine neuen Produkte im Leistungsvergleich mit AMD besser, doch der PC-Markt sei zunehmend weniger an Performance interessiert.

Vielleicht war/ist ja es gut, dass sich AMD kurzzeitig nicht mehr so stark auf die Destop-CPUs konzentriert hat, da sie eben nicht 5 Entwicklungsteams gleichzeitig arbeiten haben, aber auch einmal gescheit Plattformen benötigt.

Vielleicht ja es ja sehr gut, dass sich AMD, sagen wird mal, zwischen Mitte 2005 und Mitte 2006, sich auf die Plattformen (Notebook, Wohnzimmer-CPU,...) konzentriert hat, da die Performance (siehe oben) nicht mehr so wichtig ist, sondern eher der Preis (Vereinheitlichung beiattformen) und der Stromverbrauch (Alle Komponeten auf Hinblick des Stromverbrauchs)

Und dann ist Anfang 2006 AMD draufgekommen, dass sie ATI braucht um diese Plattformen relativ schnell und gut zu erreichen.
Schließlich war/istgerade die Notebook-Plattform a la Centrino die Sträke Intel

Gut, AMD wurde mit der Leistung des Conroe übrauscht. Aber hätten die es sonst noch besser machen können??

Immerhin haben sie erst seit paar Quartalen 2 Entwicklungsteams und sie müssen in Zukunft vielleicht nicht mehr einen CPU Typ für einigen Monate einfrieren.
 
Gut, AMD wurde mit der Leistung des Conroe übrauscht. Aber hätten die es sonst noch besser machen können??
Besser machen:
- 65nm ist einfach überfällig, obwohl die Fab36 es kann; 65nm hätte jetzt verfügbar sein müssen.
- damit dann low power Turion X2 fertigen
- und mid power Desktop = ca. 65 Watt
- und endlich den TDP++ Quatsch beenden und die Werte realistisch angeben.
- dazu die Socket-Situation in den Griff kriegen. DDR2 benötigt einfach noch etwas Zeit zum Durchbruch. DDR1 ist auch 2006 noch wichtig, aber für So. 754 fehlen die performanten CPUs und für So.939 gehts zwar ab 30/3200+ los, dafür will AMD diesen Socket schnell killen.

Das ist kein Hexenwerk, muss aber gemacht werden.
 
Wie seht ihr es eigentlich mit den Memorycontrollern für FB-DIMMs? Wird hier AMD künftig seinen Vorteil behalten? Immerhin sitzen bei der Bensley Plattform gleich zwei und bei der Caneland Plattform gleich vier Speichercontroller zusammen in einem Chipsatz, während bei AMD jeder Prozessor seinen eigenen Speichercontroller für FB-DIMMs mitbringen wird und laut Intel hat benötigt ein Speichercontroller 22 Watt. AMD geht sogar von 46 Watt aus. Wenn ich aber bedenke, dass bei Intel alle Speichercontroller schön gebündelt in einem Chipsatz stecken, dann könnte es doch sein, dass ein Vebrauchsvorteil von AMD künftig dahin ist, weil ich mir vorstellen kann, dass vier Speichercontroller verteilt über die einzlenen Prozessoren einen höheren Verrbauch haben. Es sei denn man wechselt überhaupt zu FB-DIMMs, wonach es aber aussieht. Zu groß sind die Vorteile. Allein dass nun je Speichercontroller ganze acht Kanäle zu Verfügung stehen und nicht bloß zwei. Immerhin wird AMD dann schon seinen 65nm Fertigungsprozess verwenden. Nimmt man an, dass die TDP deshalb bei den DualCore Modellen von 95 Watt auf 65 Watt absinkt und man dann wieder die 46 Watt für den Speichercontroller abzüglich der 12 Watt für den bisherigen DDR2-RAM Controller aufschlägt, dann kommt man auf 99 Watt, was ungefähr der usprünglichen TDP der 90nm Opteron Prozessoren entspricht. Damit würde alles beim Alten bleiben.
 
Da kann Intel jetzt aber per Woodcrest auch blockieren.

Der Woodcrest kann im Serverbereich meiner Meinung nach gar nichts aendern.

Wie die aktuellen Meldungen zeigen, ~26 % bei den Stückzahlen und 33 % beim Umsatz, verdient AMD wohl eher im Bereich der 4P Server, genau da wo Dell sich AMD zuwendet.

Endlich wird IBM heute auch sein AMD-Portfolio ausweiten. Das Konzept der Socket F die kompatibel zum Quad-Core sind (bei gleicher TDP) scheint zu überzeugen und man kann davon ausgehen, dass gerade IBM die Quad-Cores schon gesehen hat.
 
Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten. Dann entfällt der Makel, dass sich zwei Prozessoren einen Frontsidebus teilen müssen. Sollte Intel soweit sein, dann wird AMD nur noch die Hochburg der OctProcessor Systeme für sich haben, denn dort ist meines Wissen seitens Intel nichts in Planung.
 
Ist nicht bei Intel immernoch CSI in Entwicklung? Damit könnte Intel noch einen Schritt weiter an AMD rankommen (wie sich das anhört ;D Intel = Plagiator nicht mehr AMD ;))
 
Wie seht ihr es eigentlich mit den Memorycontrollern für FB-DIMMs? Wird hier AMD künftig seinen Vorteil behalten?
Bei FB-DIMM's kommt der Stromverbrauch gegenüber AMD nicht nur von der Northbridge, sondern auch von dem Kontroller auf dem Modul.
Daher kommt AMD wahrscheinlich auf die 46 Watt.

.
.
Edit:
Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten.
Eine externe Northbridge wird nie die Latenzen eines eingebauten Kontrollers haben können.
Daher ist von dieser Seite eher wenig zu befürchten.

lg
__tom
 
Zuletzt bearbeitet:
Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten.
So eine Art 'Pseudo-Northbridge', wo der CPU-Bus nur die Anforderungen ans Ram über das Silicium in der 'North-Bridge' weiterleitet. Dann noch ergänzt um eine zusätzliche CPU <-> CPU Kommunikation ?

Bei AMD ist per Hypertransport und durch die Aussagen bzgl. Quad-Core und spätere CPUs mit DDR2/3 Kombikontroller technisch gutes, aber eben auch plattformstabiles in Sicht. Der So.F kann so theoretisch 90nm, 65nm und 45nm überstehen (bei 45nm die 2006er Boards nur per DDR2 Kontrollerfunktion nutzbar).
Mal realistisch - sind obige Ideen von Intel genauso langfristig nutzbar ?
 
..., sondern auch von dem Kontroller auf dem Modul. Daher kommt AMD wahrscheinlich auf die 46 Watt.
Nein. Die 10,4 Watt für den AMB und die BGA Chips hatte AMD nicht in die Rechnung mit einbezogen. Laut AMD sind die 46 Watt allein für den Speichercontroller und das ist ja schon ein recht beträchtlicher Wert, welchen ich mir eigentlich gar nicht erklären kann, denn der Speichercontroller wird ja eigentlich durch die Abwälzung von Aufgaben an die einzelnen Module entlastet.
 
Zuletzt bearbeitet:
Intel wird ab künftig bei den QuadProcessor Systemen deutlich zu AMD aufschließen können, denn es sind Chipsätze seitens Intel in Arbeit, die für jeden Prozessor einen eigenen Frontsidebus und Memorycontroller bieten. Dann entfällt der Makel, dass sich zwei Prozessoren einen Frontsidebus teilen müssen. Sollte Intel soweit sein, dann wird AMD nur noch die Hochburg der OctProcessor Systeme für sich haben, denn dort ist meines Wissen seitens Intel nichts in Planung.
Ja und nein. Die Caneland-Plattform hat zwar 4 eigene Leitungen zw. CPU <-> Chipsatz, aber ansonsten bleibt es bei den 4 FB DIMM Kanälen wie schon jetzt beim broadwater.
Besser als früher natürlich, aber immer noch ne Notlösung. Allerdings ist die CPU (zum Glück für Intel) besser, der Bus wird durch die Woodcrest entlastet, da die inter-chip Kommunikation über den L2 abläuft. Der ist auch noch 4 MB groß, und buffert bestimmt auch noch einiges ab. (Ein Vergleich zum Tulsa wäre mal interessant, zirkulieren da noch keine Samples ? Aber max. 3,4 netburst GHz interessieret das wohl keinen :-) )

Allerdings würde mich mal interessieren, wieviel Layern man da braucht pro Caneland-board. Und die Meganorthbridge dürfte auch nicht "billig" herzustellen sein.

Was mich zweitens interessieren würde ...
Was passiert wenn da 4 woocrests mit Ihren Prefetch den RAM "beackern". Könnte mir vorstellen, dass die sich da etwas in die Quere kommen könnten. Aber muss nicht unbedingt sein, z.b. wenn jede CPU andre Daten braucht.

ciao

Alex
 
ein viel größeres problem als der conroe selbst scheinen die neuen g965/963 chipsätze zu sein.

so berichten digitimes und andere über erhebliche verzögerungen aufgrund diverser technischer probleme mit der integrierten grafiklösung.

Delayed shipments of Intel G965 chipset may interrupt Conroe's march

However, a defect in the integrated graphics subsystem was found, and Intel notified its customers that next stepping, called C-2, which fixes the flaw, will likely not be shipped until the middle of August, the makers indicated.

d.h. im stückzahlen-starken office-bereich ist das sicherlich für intel ein ärgernis, da spielt die verfügbarkeit des conroe ja schon fast eine untergeordnete rolle.
 
ein viel größeres problem als der conroe selbst scheinen die neuen g965/963 chipsätze zu sein.

so berichten digitimes und andere über erhebliche verzögerungen aufgrund diverser technischer probleme mit der integrierten grafiklösung.
Ein Glück gibt es ja noch Nvidia und im äußersten Notfall ATI, damit man was am Bildschirm erkennen kann ;D
Im äußersten Notfall kauft Intel einfach noch Nvidia dazu - Schwamm drüber :-[

Zudem ist der Conroe bei low resolution besonders leistungstark im Vergleich zum X2.
Viele haben eh nicht so gute Augen, sodaß 800x600 doch völlig ausreichen dürfte 8)
Und im Office wird die Zockerzeit reduziert - die Firmen werden den Chip Intel aus den Händen reisen.

achso - technisch betrachtet - könnte es sein, daß der brutal schnell zugreifende Speicherkontroller beim Conroe (fast so niedrige Latenzzeiten wie beim K8 ) einfach der int. GPU in der Northbridge zu oft den Speicher 'klaut' ?
Dann müßte Intel den Conroe modifizieren, damit die GPU wieder Luft bekommt.
Zumindest eine unerwartete und spannende Info ...
 
Zuletzt bearbeitet:
aber die preise für ne extra karte will man ja vermeiden.

außerdem, finde ich es schwachsinnig für nen office PC nen hyperschnellen Conroe zu nehmen... da gibts garantiert billigere lösungen.
 
außerdem, finde ich es schwachsinnig für nen office PC nen hyperschnellen Conroe zu nehmen... da gibts garantiert billigere lösungen.
http://de.theinquirer.net/2006/08/02/der_amdintelpreiskrieg_laesst.html

Material dafür hat Intel genug - der unverkaufte Berg an Chips wächst und wächst ...
Aber, im Office sind stromsparende Lösungen (Stromverbrauch, Kühlung, Geräusch) angesagt. Da erscheint mir selbst als AMD-Fan ein Budget-Conroe auf Dauer preiswerter als ein fast geschenkter Netburst mit viel GHz inside - oder eben gleich einen K8.
 
Zurück
Oben Unten