P4 DualCore? Doch?!?

Bokill

Gesperrt
Mitglied seit
18.01.2002
Beiträge
5.689
Renomée
60
Standort
Bremen
Unsere lieben Freunde von X-BitLabs ist da was zu Ohren gekommen.

Möglicherweise wird der Markt von der Sockel T Plattform (LGA 775) mit unterschiedlichen Kernen bedient werden.
Viele ;) vermuteten mit Recht, dass so der PentiumM endlich ein Refugium im Heim PC finden könnte ... und sahen daher eine totale Absage an das "Netburst-Konzept" .

Der P4 Prescott, so hiess es im Blätterwald sei der letzte Vertreter ... wohl doch nicht.

Wenn das Gerücht wahr wäre, dann tanzen 2005 2 1/2 verschiedene Kerne auf dem LGA 775. Wenn das Gerücht mit dem Itanium im Jahre 2007 stimmen sollte, dann sind 3 1/2 verschieden Kerne auf einer Systemplattform zu erwarten.

1. Prescott
2. PentiumM (Dual-Core)
2 1/2. Prescott Dual-Core

Noch eine andere Variante zur Absage des Tejas? .

Der Aprilscherz 2004 könnte so ungeahnte Aktualität bekommen. Aktuelle wahre P3D Meldung zum K8 Dual-Core.

Die Meldung von Xbitlabs von Anton Shilov
Dual-Core Pentium 4 “Prescott” Processors on the Horizon [UPDATED]

Intel Plans Dual-Core NetBurst Chips

UPDATE: A representative for Intel Corporation told X-bit labs the company had never released any precise details in regards the dual-core strategy. The information published herein should not be considered as based on official statements.

Intel Corporation may release dual-core Pentium 4 “Prescott” processors in late 2005, a report over Geek.com web-site claims. If the information is correct, the roadmap of the world’s largest manufacturer of central processing units gets completely reshuffled once again.

Dual-Core Prescott Spotted

At the Intel/PC Magazine-sponsored Technology for Business Today seminar in Washington, D.C., Intel representatives discussed the present and future of computers touching upon the modern and next-generation microprocessors. The firm’s officials reiterated the company’s plans to issue dual-core processors in 2005 and even shed some light on the technical information about the chips. Apparently, the desktop processors will continue to utilize the NetBurst architecture and at this point such central processing units are referred as dual-core Prescott microprocessors. Mobile dual-core chips will have architecture similar to that of the Pentium M products available today. Such products may also find themselves in desktops, though, the premier performance will be offered only by dual-core NetBurst products.
...
Eine Firmeninterne Zersplitterung des Marktes in immer weiter voneinander driftenden Marktsegmenten?

Leistungskräftig
Klein & Sparsam (Neu: Stichwort Transmeta, VIA C3 & C5 , GeodeNX, PentiumM)
Billig

An sich aber realistisch, da AMD für 2005 Dual-Core für den K8 angekündigt hatte.
An sich müsste intel mit diesem Schritt aber ordentlich an der Fertigungstechnologie gedreht haben. Haben sich die Probleme doch nicht als so schwerwiegend erwiesen? Eigentlich kaum wahrscheinlich.

Witzigerweise wird aber auch FB-DIMM in der Meldung genannt, bestimmte Stichworte kehren so immer wieder.

MFG Bokill
 
Zuletzt bearbeitet:
Hmm...

Der Single Prescott kam ja schon in Sachen Stromaufnahme und Waermeabgabe nicht besonders gut an; wie sollte es Intel schaffen, gleich zwei Blockheizwerke auf einen DIE zu vereinen (?)

IMHO muessten die Boxed im Bundle mit BTX und Prometeia-/Vapochill-Aggregaten ausgeliefert werden *g*
 
hmm...das wäre dann doch wieder quasi ein Tejas...Intel, was machst du bloss ?! *buck*
 
Original geschrieben von FalconFly
Hmm...

Der Single Prescott kam ja schon in Sachen Stromaufnahme und Waermeabgabe nicht besonders gut an; wie sollte es Intel schaffen, gleich zwei Blockheizwerke auf einen DIE zu vereinen (?)

IMHO muessten die Boxed im Bundle mit BTX und Prometeia-/Vapochill-Aggregaten ausgeliefert werden *g*

Genau das dachte ich als ich den Threadtitel gelesen habe ;D
Mal sehen was die sich da lustiges einfallen lassen. *zweifel*
 
Original geschrieben von FalconFly
IMHO muessten die Boxed im Bundle mit BTX und Prometeia-/Vapochill-Aggregaten ausgeliefert werden *g*

*grübel*...

Hmm, Intel Dualcore kaufen, Boxedkühler ;) abmachen, CPU über Ebay verschachern...

AMD Dualcore mittels Prom Beine machen ;D 8)
 
Original geschrieben von K4mui
*grübel*...

Hmm, Intel Dualcore kaufen, Boxedkühler ;) abmachen, CPU über Ebay verschachern...

AMD Dualcore mittels Prom Beine machen ;D 8)
Glaubst du wirklich, dass du so preisgünstig an eine Prometeia kommst? Die CPU würde Boxed 1800€ kosten... *lol*

Ansonsten kann ich diesen Schritt nicht verstehen (falls er wahr ist). Dann stellt sich nämlich die Frage warum man vorher den Pentium-M Zwischenschritt machen würde. Das mit dem DualCore P-M finde ich vernünftig und dürfte erstmals wieder ein bisschen Konkurrenz für AMD sein (dass die wieder vom Intel Preisniveau herunterkommen). Aber ein DualCore Prescott wären zwei Schritte rückwärts.
 
Wenn mir Intel dann die Stromrechnung zahlt, bin ich gleich mit dabei ;D
 
Fits All.

Das ist wohl abgeschlossene Vergangenheit. Der Pentium1MMX war ohne Designänderung in allen Bereichen drin.

Von Brettern mit Dual Pentium1MMX en über Massenkonsumentenbrettern bis hin zu Notebookexemplaren.

Danach fing die wunderbare Vielfalt an ... und sie wächst weiter. Wer sich den obersten Griff in die Premiumklasse leisten kann, den juckt auch nicht die Wärme oder der Strompreis.

Im Inquirer konnte man Meldungen sehen in denen Turbinen, weniger Lüfterpropeller für Kühlung/Frischluft sorgten. Das jammern über den Strompreis können nur stromgeplagte Kalifornier und [ironie] "grüne wehrkraftzersetzende Ökodeutsche" [/ironie] machen.
Angeber und/oder Protzer holen da durchsichtige PlexiglasCases heraus und besorgen sich vergoldete mit Schwarzlicht beleuchtete Kühllösungen, in denen (aus Zierde) natürlich fluoreszierende Flüssigkeiten fröhlich vor sich hingluckern.

Ob die Leistung aber wirklich gebraucht wird? Egal! Spätestens seit dem Athlon hat die Masse Rechenleistung bis zum Umkippen, selbst MS kommt mit seiner Software nicht hinterher, um die Leistungskraft zu drosseln.

Gut möglich, dass Intel aus Prestigegründen genau deswegen den Dual-Prescott für so etwas weiter pflegen will. Der PentiumM könnte sicherlich im Jahre 2005 zum Büroprozessor des Jahres werden.

just 2 Cents ... Bokill

@Dresdenboy
Deine Papers hatte ich schon gesehen, die sind überzeugend :). Das Problem ist (wem erzähle ich dies ;) ), dass selbst mit geringem Leckstrom, sehr schnell der Strombedarf verdoppelt wird. Als sparsam galt der P4 ja nie. Nun ist eine endgültige Marktspaltung besiegelt. Das Problem hat nun das Marketing, die eben diese unterschiedlichen Familienmitglieder vergleichbar machen muss (oder das Gegenteil). Eine bisher verwirrende Marketinglösung entstand.

AMD selber trägt zur unklärenden Verwirrung bei: Stichwort Semperop ... äh Sempron. 8)
 
Zuletzt bearbeitet:
Vor 8 Tagen kam auf CNET schon ein Artikel, in dem schon deutlicher von Dual-Core-Prescotts gesprochen wird. Zumindest deutet die LaGrande-Technologie schon auf Prescott oder einen modifizierten Prescott-Core. Willamette hatte m.W. auch schon Hyperthreading an Bord. Die Vanderpool-Technologie könnte dann auch ein weiterer Grund für Prescotts viele Transistoren sein.

Kevin Krewell wird noch im gleichen Artikel erwähnt. Er meint, daß die ersten Intel-Dual-Cores für Desktop auf Prescott basieren werden.

Es spricht auch nichts dagegen (auch nicht Prescotts jetziger Leistungshunger), da die Stromaufnahme und Spannung bei niedrigerem Takt sinken bzw. gesenkt werden können.
 
Nur mit dem Senken der Taktfrequenz alleine ist es beim Prescott nicht getan, denn die enormen Leckströme entstehen auch, wenn die Transistoren nicht schalten und sind damit unabhängig von der Taktfrequenz. Bevor die Spannung nicht min. unter 1V beim Prescott liegt, sehe ich keine Chance für Dual Core und der Strompreis spielt doch eine Rolle, wenn man seinen PC viel verwendet und davon kann man bei jemandem, der sich eine Dual Core CPU kauft ausgehen.
 
Der Strompreis interessiert da nur wenige, aber die Lautstärke oder Temperaturentwicklung des Rechners schon mehr.

Intel hat jetzt noch ca. 12-18 Monate Zeit, um die Leckströme in den Griff zu bekommen. Es weist ja auch nicht jedes Die den gleichen, hohen Leckstrom auf.

Fred Weber hat das auf der MPF Keynote im Falle von AMD gezeigt. Bis zu einer bestimmten Taktfrequenz hält sich ICCstat vieler vermessener Dies in einem niedrigen, engen Bereich. Mit steigender Taktfrequenz verbreitert sich dieser Bereich drastisch und die Untergrenze steigt progressiv. Nun kann man nur gezielt nur die Dies mit niedrigem ICCstat verwenden, oder setzt die Spec höher, damit mehr Dies verwendbar bleiben. Ich denke hierbei auch, daß sich dieses Verhalten, ähnlich wie das Yield, mit fortschreitender Verbesserung des Prozesses ebenfalls verbessert.
 
hi,
ich kann euch da nur voll zustimmen. Ihr seid wirklich gut informiert. Interessant wären diese neuen Dualcore CPU's nur wenn sie von der Wärmeabgabe wieder auf das Niveau eines Northwood kommen, da sich nicht jder beispielsweise eine Prometeia leisten kann.
 
Original geschrieben von Dresdenboy
Der Strompreis interessiert da nur wenige, aber die Lautstärke oder Temperaturentwicklung des Rechners schon mehr.

Intel hat jetzt noch ca. 12-18 Monate Zeit, um die Leckströme in den Griff zu bekommen. Es weist ja auch nicht jedes Die den gleichen, hohen Leckstrom auf.

Fred Weber hat das auf der MPF Keynote im Falle von AMD gezeigt. Bis zu einer bestimmten Taktfrequenz hält sich ICCstat vieler vermessener Dies in einem niedrigen, engen Bereich. Mit steigender Taktfrequenz verbreitert sich dieser Bereich drastisch und die Untergrenze steigt progressiv. Nun kann man nur gezielt nur die Dies mit niedrigem ICCstat verwenden, oder setzt die Spec höher, damit mehr Dies verwendbar bleiben. Ich denke hierbei auch, daß sich dieses Verhalten, ähnlich wie das Yield, mit fortschreitender Verbesserung des Prozesses ebenfalls verbessert.

ich möchte nochmals an ein paar dinge erinnern, damit man den roten faden nicht verliert bei dem vielen chaos, das intel da prodziert:


1. da nicht jedes die den gleichen hohen leckstrom aufweist, hatte intel doch schon im letzten jahr (?) davon gesproche, die cpus speziell zu selektieren um sie mit bessere ausbeute verkaufen zu können. in der diskussion damals habe ich bereits behauptet, daß der vermeintliche fortschritt bei intel (nämlich die höhere effizienz bei der cpu ausbeute) eigentlich auf eine schwäche hindeutet, nämlich nicht mehr so leicht und ohne probleme cpus mit höheren takt liefern zu können. ihre technik war an die grenzen gestoßen (damals wurden ja auch die temp-specs für die 3,2ghz cpus geändert - nämlich gesenkt!). ich denke diese behauptung hat sich 2003 bewahrheitet, als intel nicht wirklich über 3,2ghz hinaus kam und sie hat sich erneut bewahrheitet, als ihr prescott ebenfalls das problem nicht lösen konnte. um konkurrieren zu können, mußte und muß intel praktisch die handverlesenen die-nuggets suchen, während amd einfach standard und massenware verwenden kann. müßte amd heutzutage mit 130nm 2,6ghz (oder gar höher) liefern, dann wären sie in der gleichen situtation.

überhaupt: die behauptung, auf die auch aktionäre und analysten immer wieder hereinfallen, intel habe eine technologische führerschaft, entpuppt sich mit dem erreichen physikalischer grenzen als fake. er gründet nur darauf, zu lesen, intel habe ja bereits diesen oder jenen produktionsprozess erfolgreich am laufen. doch daß sie immer vor amd die nächstkleinere strukturgröße verwenden MUßTEN ist kein vorsprung, sondern in wirklichkeit technologischer nachtteil. sie mußten dies tun, um leistungsmäßig mithalten zu können, manchmal errangen sie dabei sogar die leistungsspitze im x86er markt, doch jetzt haben sie sogar probleme, den gleichstand zu erreichen.

aber, zugegeben: keinere strukturen waren auch ein klarer, mittelfristiger wirtschaftlicher vorteil, da sie billiger produzieren konnten (weswegen sie ja auch 300mm wafer haben und desweiteren den großen vorteil von synergieeffekten aufgrund mehrer fabs) - wenngleich sie ihre zukunft aufassen, wenn sie nicht rechtzeitig technologien fanden, die physikalische grenzen überwinden half, die man ohne allzu hohe kosten in allen fabs anwenden konnte. und genau das hat diesesmal nicht geklappt. sie haben nicht auf soi gesetzt, weil es wohl schwierig ist (siehe ibm hilfe für amd), bei 300mm wafer noch schwieriger. ich weiß auch nicht, ob man die "alten" fabs hätte leicht (=billig)umrüsten können. schließlich hat amd ja auch ihre alte fab nicht umgerüstet sondern die fab in dresden neu gebaut und von anfang an ausgelegt für soi. so wie jetzt die neue fab für soi UND 300mm.

hier sieht man auch, daß amd, da sie trotz engeblicher technologischer nachfolgerschaft ja immer mit ihrem athlon konkurrenzfähig waren (wenn man mal manipulationen mit den benches ignoriert und ebenso die flut der einsetzenden software-optimierungen), eben genau die zukunft noch vor sich hat, auf die intel schon vorher zugreifen mußte: amd kann die produktion noch verbilligen durch 90nm prozess UND 300mm wafer. und sie können die rechenleistung ihrer cpus noch steigern durch taktsteigerung UND dual-core.

intel dagegen muß mit dem scheitern des mhu rennen weit unter 4ghz sich die neuen wege erst erarbeiten. daß dauert. alles, was da zur zeit kommt, zeigt die panik. welche panik? nicht die, die marktführerschaft zu verlieren. aber stabil 20-30% in allen wichtigen segmenten (desktop, server, notebook) ist doch für intel schon verheerend. jede million in amds kasse ist ne million weniger bei intel - und bei den jetzigen amd preisen tatsächlich :-)



2. wir wissen ja immer noch nicht, warum der prescott soviele transistoren hat. meine ehemalige vermutung war ja dual-core - aber ich glaube es irgendwie selber nicht. schließlich argumentierten bisher hier alle dagegen (unter anterem wegen der die-bilder).

wenn im jetzigen prescott tatsächlich nichts drin ist für dual-core (was also entsprechend schon strom braucht), dann frage ich mich aber, was ein dual-core auf basis des prescott bringen soll? ein dual-core verbessert ja nicht (oder nur kaum) die rechenleistung im verhältnis zum aufgewendeten strom. ist ja bei hyperthreading auch nicht der fall, daß das verhältnis ipc pro watt viel besser wird, der absolute stromverbrauch aber natürlich dennoch steigt. nur: da hat intel nicht viel spielraum nach oben...

und wieso sollte ein dual-core mit weniger spannung auskommen? es läuft doch nur darauf hinaus, daß ein dual-core bei NIEDRIGEREN TAKT mit weniger spannung und damit auch weniger wärmeabgabe möglich ist. also ein dual-core prescott mit 2,2ghz ersetzt dann einen single-core prescott mit 4ghz? mag ja gut sein für server-anwendungen, aber die spielegemeinde wird davon wohl wenig haben. oder profitieren spiele heute auch schon stark von hyperthreading? ich meine nur quake ist dafür jemals entsprechend entwickelt worden, auf mehrprozessor-system zu laufen...

ein dual-core auf prescott basis mit kleinerem cache (=weniger transistoren) wäre denkbar. nur: das kostet gerade dem prescott viel mehr leistung als dem athlon 64. eine lösung wäre: dual-core mit weniger cache und weniger cpu-takt, aber ein erheblich verbesserter ram-zugriff. da sehen wir den grund für ddr2, aber bis das greift (=ddr2 mit hohem takt!) vergehen noch locker 2-3 jahre.

3. weitere probleme und offen fragen: memory controller einbauen in den p4? und was ist mit der 64bit leistung? ich weiß nicht, es ist mitte 2004 (weihnachtsgeschäft!), intel kann keine konkurrenzfähigen produkte liefern, dafür aber liefern sie chaos pur an unzähligen signalen: mal soll es der itanium sein, dann der dothan, jetzt wieder der p4, dem die zukunft gehört. die wissen doch selber nicht mehr weiter und bräuchten den großen schnitt.

ich bin mir ziemlich sicher, daß amd ihren 90nm soi prozess gut hinbekommen wird, GERADE WEIL sie nicht mehr unter druck stehen. ich würde auch drauf wetten, daß sie ihre roadmap nicht einhalten, sondern den verkauf von 90nm nach hinten verschieben, weil es keinen druck gibt, im herbst mit einer technologie geld zu verdienen, welche auch sechs monate später das geld fliessen läßt. vielleicht, nein wahrscheinlich gibt es bis ende des jahres von amd prozessoren mit 2,6ghz in 130nm. natürlich so teuer wie die jetzigen high-end produkte, aber das macht nichts, denn auch die wären eher handverlesen und zugleich ohne konkurrenz von intel. 2005 dann in 90nm bis 3,2ghz wenn es sein muß und auch ein dual-core von intel würde dort noch probleme haben, gegenan zu kommen. so erklärt sich auch, warum amd meint, keinen dual-core im desktop zu benötigen.

im server bereich wäre der schritt zu dual-core opteron natürlich top. zum ersten: die anwendungen sind dafür optimiert. zum zweiten: ein dual-core opteron kann für die gleiche rechenleistung mit erheblich niedrigeren takt fahren. dies ist natürlich optimal für stromverbrauch, für effektive nutzung der ram-anbindung und des hyperlinks, sowie zum ausbau der produktpalette. ein dual-core opteron könnte es dann geben in 90nm technologie mit 1,8ghz bis zu 3ghz - selbst die kleinste variante schlägt jeden xeon, die ja alle krankheiten des prescott erben werden. und 2006 winkt ja schon der betrieb der neuen fab in dresden...

zumindest für den servermarkt reichen intel die von dresdenboy genannten 12-18 monate nicht aus. hieß es früher, amd versuche oder habe einen fuß in der tür, so muß man nun sagen, der igel ist schon lange da - es hat nur kaum jemand gemerkt. :-)
 
die behauptung, auf die auch aktionäre und analysten immer wieder hereinfallen, intel habe eine technologische führerschaft, entpuppt sich mit dem erreichen physikalischer grenzen als fake.
Wenn intel ein angepasstes Design herausbrächte, Stichwort PentiumM, dann ist die Fertigung sehr wohl Spitze.

er gründet nur darauf, zu lesen, intel habe ja bereits diesen oder jenen produktionsprozess erfolgreich am laufen. doch daß sie immer vor amd die nächstkleinere strukturgröße verwenden MUßTEN ist kein vorsprung, sondern in wirklichkeit technologischer nachtteil.
...
Nur einer, der technologisch in der Fertigung spitze ist, kann solch ein Marktgebahren an den Tag legen.
Strukturverkleinerung als erster am Markt eizuführen ist gleichsam das intel-Evangelium.

Bis zum Prescott hat diese Strategie immer Erfolg gehabt.
Deswegen musste AMD immer auch ein Design wählen, dass auch mit gröberer Strukturbreite prima klarkommt, bzw. die Fertigung wird aufgepeppt mit Goodies wie Cu, SOI, LowK, Flip-Chip etct.
Nur es hat den Anschein, dass AMD erstmals in aller "Ruhe" den nächsten Schritt einleiten kann, ohne von intel vorschnell dazu gezwungen zu werden. Ein Novum!
sie mußten dies tun, um leistungsmäßig mithalten zu können, manchmal errangen sie dabei sogar die leistungsspitze im x86er markt, doch jetzt haben sie sogar probleme, den gleichstand zu erreichen.
...
Wie gesagt pro Prescott-Transistor ist der Strombedarf der zur Zeit geringste, dummerweise sind im Prescott aber abartig viele Transistoren versammelt, zu dumm nur dass die Bilanz ordentlich verhagelt wird durch Leckströme. Ich erwarte eine Prescottsellerionschwemme (Back to School ... spätestens zu Weihnachten)

MFG Bokill
 
Original geschrieben von Bokill


Wie gesagt pro Prescott-Transistor ist der Strombedarf der zur Zeit geringste, dummerweise sind im Prescott aber abartig viele Transistoren versammelt, zu dumm nur dass die Bilanz ordentlich verhagelt wird durch Leckströme.

MFG Bokill

Würde ich nicht sagen wollen..
Cache schluckt ja recht wenig Saft und ist auch in Sachen Lecks recht unkritisch.

Bleiben die ca 55Mio Logiktransistoren: Wieviele von denen sind nun wirklichj aktiv? Wieviele sind ständig am Schalten, und wieviele werden nur mit einem Taktsignal versorgt.
Die wichtigste Frage aber: Wieviele von denen sind überhaupt nicht angeschlossen?
Pauschal kann man das also schlecht sagen, finde ich.
 
Würde ich nicht sagen wollen..
Cache schluckt ja recht wenig Saft und ist auch in Sachen Lecks recht unkritisch.
He he ... angebissen ;)
Zugegeben Cache ist da sehr unkritisch.

Bleiben die ca 55Mio Logiktransistoren: Wieviele von denen sind nun wirklichj aktiv? Wieviele sind ständig am Schalten, und wieviele werden nur mit einem Taktsignal versorgt.
Die wichtigste Frage aber: Wieviele von denen sind überhaupt nicht angeschlossen?
Pauschal kann man das also schlecht sagen, finde ich.
Aber erstaunlich ist der deutliche Zuwachs an weiteren Logiktransistoren. Selbst wenn diese deaktiviert wurden, so nippen sie immer noch am Strombudget, Quanteneffekte sei Dank ... siehe auch Bokill`s praktische CPU-Schlüsselanhänger - Selbstbaukurs & Theorie (Achtung Satire! ). NVIDIA hatte da ja auch schon üble Erfahrungen sammeln müssen (Schlecht übertaktbare Bridges dank integrierter Grafikkarte).
Wenn man bei dem K8 die Speicherkontroller mal ausklammert, dann ist der Zuwachs an Logikschaltungen viel geringer als beim Prescott.
Beim K8 sind auch Gerüchte im Umlauf, dass nicht alle Einheiten mit dem Chiptakt laufen. Der Speicherkontroller könnte da durchaus auf halbem Takt laufen, auch andere Einheiten ... aber dies sind nur Gerüchte.

Entscheidend bleibt, jeder integrierte Transistor schreit nach Strom, ob nun in Funktion oder nicht, so ist das derzeit mit Schaltungen auf Halbleiterbasis.

MFG Bokill
 
Original geschrieben von BlackBirdSR
Bleiben die ca 55Mio Logiktransistoren: Wieviele von denen sind nun wirklichj aktiv?
Der Prescott hat insgesamt 125 Mio Transistoren, abzüglich der ca 55 Mio Cache Transistoren sind das immerhin 70 Mio Logiktransistoren, also mehr als 50%. Ich sehe das eigentlich auch so wie Bokill: am Dothan sieht man, dass der 90 nm Prozess nicht wirklich schleht ist, schließlih bleibt dieser trotz höherer Taktfrequenz als Banias und mehr Cache unter dem TDP des Banias.

Ansonsten finde ich Treverers Analyse der aktuellen Situation wirklich gut und in sich schlüssig. Nur in einem Punkt würde ich ihm widersprechen: auch wenn AMD aus Performancegründen den 90 nm Prozess nicht braucht, denke ich, dass sie bemüht sind, ihn dennoch früh einzuführen, um die Fertigungskapazitäten zu verbessern. Gerade jetzt, wo Intel nicht mehr hinterherkommt, ist die günstigste Situation um den Marktanteil zu erhöhen: wie in AMDs Erfolgsjahr 2000 (oder 2001)
 
Original geschrieben von mtb][sledgehammer
Der Prescott hat insgesamt 125 Mio Transistoren, abzüglich der ca 55 Mio Cache Transistoren sind das immerhin 70 Mio Logiktransistoren, also mehr als 50%. Ich sehe das eigentlich auch so wie Bokill: am Dothan sieht man, dass der 90 nm Prozess nicht wirklich schleht ist, schließlih bleibt dieser trotz höherer Taktfrequenz als Banias und mehr Cache unter dem TDP des Banias.


Du musst den doppelten L1 Cache mitrechnen und auch die zusätzlichen Supportstrukturen für die zusätzlichen 11 Pipelinestufen.
Machen wir 60Mio draus.. oder irgendwas in der Richtung.

Zudem besteht immer die Möglichkeit ganze Bereiche komplett vom Taktsignal abzutrennen -> kein Leckstrom.
So einfach ist es also nicht.
Aber ich stimme zu, dass es weniger am 90nm prozess liegt, der läuft ok.
Es liegt einfach daran, dass zu viel Takt und Transistoren mit 90nm momentan nicht (gut) möglich sind.
 
@bokill
"technologische führung" ist nicht das gleiche wie führung in der fertigungstechnik. wenn mercedes mit modernster fertigungstechnik veraltete, ineffiziente autos baut, dann haben sie zwar auch die führung in der fertigungstechnik, aber noch lange die technologische führung bei ihrem produkt selbst. daß eine kann natürlich das andere kaschieren helfen. beispielsweise hatte roll royce eine schlechte fertigungstechnik, aber technisch top motoren - wenngleich auch nicht modern im üblichen sinne :-) ist jetzt klar, was ich meine, wenn ich sage, intel hat und hatte keine technologische führerschaft? wenn man es jemanden zugestehen kann, dann wohl ibm - auf deren zug amd nur mitreist.

vielleicht sollte man drei dinge unterscheiden: das produkt, seine produktion, seine vermarktung. intel war immer top bei den letzten beiden. zeitweise waren sie auch mit dem produkt ganz vorne, zeitweise aber auch hinter amd oder gar ibm/motorola. was man gelernt haben muß ist, daß das produkt selbst unwichtiger ist, als vor allem die vermarktung - denn damit kann man alles wettmachen (siehe auch MS). vermarktung ist aber vor allem der erworbene ruf - und der wird nun mal gerade bei intel zur zeit beschädigt wie nie, bei amd steigt er dagegen.

@sledgehammer
ja, daß habe ich mir auch überlegt und wahrscheinlich wäre es auch so, daß amd mit 90nm rauskommen, sobald sie können. wenn man die stückkosten senken kann, dann wird man dies wohl tun. aber ich denke der druck, es schnell zu machen ist raus und so lassen es einfach ruhiger angehen - was ja auch heißt, jetzt investitionskosten zu sparen und den quartalsgewinn hochzuschrauben. gut für die aktien und für das image. ich denke, dieses jahr wird es daher nichts mehr, außer symbolisch um die seriosität zu wahren...mal sehen in sechs monaten. (hmm, vielleicht habe ich auch nur mitleid mit intel und wünsche ihnen, daß amd erst später mit 90nm rauskommt *lol* )
 
@Blackbird
"
Aber ich stimme zu, dass es weniger am 90nm prozess liegt, der läuft ok.
Es liegt einfach daran, dass zu viel Takt und Transistoren mit 90nm momentan nicht (gut) möglich sind.
"

Ja was soll das denn erst werden, wenn Intel 2 PresHOTT Cores pro DIE verbaut?
*lol*

BUGGI
 
Original geschrieben von BUGGI1000
@Blackbird
"
Aber ich stimme zu, dass es weniger am 90nm prozess liegt, der läuft ok.
Es liegt einfach daran, dass zu viel Takt und Transistoren mit 90nm momentan nicht (gut) möglich sind.
"

Ja was soll das denn erst werden, wenn Intel 2 PresHOTT Cores pro DIE verbaut?
*lol*

BUGGI

Wird aufjedenfall interessant.
Ich könnte mir folgendes Vorstellen:
Die beiden Kerne laufen mit weniger als 3GHz, und reduzierter Spannung. Mit genug Cache kann man das Teilweise wett machen, zumal es ja Server CPUs sein werden. Für Dekstop CPUs wäre das eher schlecht.

Heftiges Thermal Throttling beider CPUs. Die Leistung wird sich verringern, aber es könnte noch immer ein Nettogewinn übrig bleiben. Wenn man neue Fertigungstechniken hat, kann man die Leistung dann ohne große Modifikationen an der Logik steigern.

Neue Kühlsysteme für Xeon Server, und DualCore Prescotts erst bei 65nm für den Desktop.

Intel geht davon aus, dass DualCore CPUs weniger verbrauchen werden als 4-5GHz CPUs.
Bin mir da aber nicht so sicher, wenn ich mit die 55-70Mio Logiktransen des Prescott ansehe.
 
@Treverer
"
ich denke, dieses jahr wird es daher nichts mehr, außer symbolisch um die seriosität zu wahren...mal sehen in sechs monaten
"

Das kann man so nicht stehen lassen.
Rivet hat auf der SSB Konferenz (03.06.2004) nochmals BETONT, dass 90nm PRODUCTION Anfang Mai
gestartet wurde und das erstes Volumen ENDE JULI im Markt erscheinen wird, d.h. wohl
Masse eher Mitte/Ende August - mit Sicherheit breiteste Verfügbarkeit im September.

BUGGI
 
ach, ich habe doch noch etwas wichiges vergessen:

@bokill & andere, z.b. riknet

immer wieder lese ich eure position, so schlecht sei 90nm bei intel ja gar, weil ihr höheren energieverbrauch damit erklärt, daß nun mal viel mehr transistoren zu versorgen sind. in meinen augen ist genau dies eine milchmädchenrechnung, ähnlich wie intel sie auch machte: vergrößern wir mal das die, denn mit 90nm ist ja der verbrauch pro transistor niedrieger.

entscheidend ist doch vielmehr etwas ganz anderes als der verbrauch pro transistor (insbesondere, wenn es stimmt, daß die verschiedenen funktioneinheiten, wie z.b. cache bedeutend veschieden viel strom brauchen). entscheidend ist, wieviel rechenleistung ich mit wieviel strom erreiche. und da hat intel ein miserables ergebnis geliefert: der p4 northwood und der alte athlon xp lagen dabei in etwa gleichauf, je nach benches natürlich. der athlon64 hat sich enorm verbessert in richtung mehr rechenleistung pro eingesetzer stromleistung (und dies noch inkl. memory controller), währned der prescott sich hierbei enorm verschlechtert hat. also, was nützt es, wenn der stromverbrauch für die die millionen transistoren in etwa gleich bleibt (oder gar leicht sinkt dank 90nm), ABER die rechenleistung erheblich sinkt? nichts nutzt es. das weiß auch intel und haben es mit dem dothan ja auch gezeigt, daß sie es auch anders können.

wenn ihr also sagt, die 90nm technik sei bei intel so schlecht ja doch nicht, dann betrachtet ihr es m.e. von dem falschen ziel her. wenn sie gut wäre, dann frage ich mich, warum es z.b. nicht einfach einen nortwood kern geshrinkt auf 90nm gibt? vielleicht leistet er nicht soviel - aber er verspräche, wenn eure position stimmen würde, doch einen niedirigeren stromhunger. aber es gibt ihn nicht, weil sie es noch nicht hinbekommen mit 90nm. sie müssen einen ineffizienteren prozessor bauen, damit er überhaupt läuft...lächerlich...wäre so, als müßte mclaren-mercedes einen leistungsschwächeren motor in ihre formel 1 wagen einbauen, damit sie überhaupt ankommen...UUUUUUUUUUUUPPPPPPPPPPPPPPPPPPPPPPPPPSSSSSSSSSSS...ist ja sogar echt so *lol* *lol* powered bei intelmotion eben
 
@BlackBird
"
Ich könnte mir folgendes Vorstellen:
Die beiden Kerne laufen mit weniger als 3GHz, und reduzierter Spannung
"

So in etwa ... ich denke das ganze Geblubber von Intel ist reines Marketing
Gewäsch, um nicht AMD PR technisch hinterherzuhinken - man muss eben auch Story's
liefern, siehe iX86-64 und AAC nur als Beispiel ... ergo ungelegte Eier, so wie
Tejas oder Timna. ;)

Bei den DUAL Cores sehe ich derzeit ein Problem und zwar die Task- sprich Aufgaben-
zuteilung. Schaun mer mal, was MSFT hier leisten kann, vor Longhorn erwarte ich
hier nix Großes (siehe HT) und wenn die Programme dann nicht optimiert sind - autsch.
DUAL Core deutlich langsamer als Single Core - noch dazu muss ja Intel die ganzen
Compiler neu schreiben und die SPEC-Suites dahingehend optimieren - ein langer Weg. ;)
Also wie gesagt, vorerst wird wohl noch genug Wasser den Rhein herunterfließen und
wenn 65nm vor der Türe steht, reden wir nochmal.

BUGGI
 
Zurück
Oben Unten