Wird Intel um 2010 eine 32 Core CPU herstellen??

LinuS

Vice Admiral Special
Mitglied seit
27.04.2002
Beiträge
658
Renomée
3
Standort
Ennigerloh
Laut tgdaily.com möchte Intel im 2009/2010er Zeitfenster CPUs mit 32 Cores (daraus resultierend 128 Threads ) herstellen und soll ca 15x mal so perfomant wie ein Xeon 5100 sein. Der Prozessor sollte dann als Konkurrenszprodukt zu Suns Niagara Architektur verstanden werden.
Was meint ihr dazu? Ist Intel mal wieder größenwahnsinnig, oder ist das nur wieder ein Sommerlochfüller, oder ist da doch was dran?
 
Zuletzt bearbeitet:
Ein genauso ehrgeiziges Projekt, wie damals mit dem Netburst-P4 die 10Ghz-Grenze zu knacken ;D ;D ;D

Ich meine in der Industrie wirds bestimmt Bereiche geben, die auf sowas warten, aber für den Heimanwender n bißle übertrieben.
 
Ich denke schon, dass es solche Prozessoren von Intel so um das Jahr 2010 herumgeben könnte. Immerhin will Intel bereits 2011 den 22nm Fertigungsprozess starten. Damit sollte man die Kerne schon weit genug schrumpfen können. Allerdings glaube ich nicht, dass sich AMD dadurch bedroht sehen sollte. Solch eine hohe Anzahl von Kernen wird es dann wohl vorerst nur in der Preisklasse der derzeitigen Intaniumprozessoren geben. Herkömmliche Desktop- und Workstationprozessoren vom Schlage eines Core II oder XEON müssen sich dann wohl weiter mit vier oder gar nur zwei Kernen begnügen, wie es auch bei AMD der Fall sein wird. Bedroht sehen sollte sich als Sun mit einen Sparc und IBM mit seinen Power Prozessoren.

Der für 2007 angekündigte UltraSPARC T2 wird mit seinen sechzehn Kernen, welche jeweils vier Threads abbearbeiten können auch schon auf stolze 64 Threads kommen und dies wie es aussieht ein ganzes Stückchen vor Intel, denn 2007 soll gerade einmal der Itanium II mit Tukwila Kern erscheinen, welcher über vier Kerne verfügt und zugleich eingeschränkt MultiThreaded fähig ist.

http://www.golem.de/0604/44688.html

Zum IBM POWER6 Prozessor ist leider wenig bekannt. Nur, dass er ebenfalls um das Jahr 2007 herum erscheinen soll. Angesichts der angestreben Taktraten erscheint aber ein Modell mit mehr als vier Kernen, wie beim derzeitige POWER5+ unwahrscheinlich.

http://www.golem.de/0602/43184.html

EDIT: Außerdem soll bei 32 Kernen noch lange nicht Schluß sein. Man denkt bei Intel wohl an Prozessoren mit hunderten von Kernen. Dieses Projekt nennt sich bei Intel Tera-Scale und wurde auf der diesjährigen IDF vorgestellt.

http://www.golem.de/0603/43802.html
 
Zuletzt bearbeitet:
naja 65nm 4 core; 45 nm 8 core 32 nm 16 core; 22 nm 32 core;
warum nicht auch für den desktop und warum nicht auch von amd?
 
naja 65nm 4 core; 45 nm 8 core 32 nm 16 core; 22 nm 32 core;
warum nicht auch für den desktop und warum nicht auch von amd?
http://www.hardtecs4u.com/?id=1153135313,36641,ht4u.php
http://www.heise.de/newsticker/meldung/54270

Applied Materials = Hauslieferant von AMD zumindest will bei 45nm früh dabei sein und auch 32nm ist nicht allzu fern aus deren Sicht.

AMD hat schon 2005 von Cores dieser Anzahl gesprochen.
Allerdings glaube ich kaum, daß sowas auf einem DIE mit vernünftiger Ausbeute herstellbar sein wird. Also wie bei Intel meherer DIEs.
Ob die performant genug sind wie monolytische Quad-Core (dürfte 2010 Standard sein * ) muss man abwarten.


* Bem: Sollte 2010 nicht Itanium Desktop Standard sein ?
 
warum nicht auch für den desktop und warum nicht auch von amd?
Ich glaube wenn man einen solchen Prozessor in absehbarer Zeit auch für das Desktop Segment herausbringen würde, weil sich wohl keine vernünftigen Preisleistungsmaßstäbe mehr einhalten lassen würden. Zumal in diesem Bereich auch gar kein so großer Bedarf nach Prozessoren dieser Leistungsklasse bestehen sollte. Heutzutage drehen die Prozessoren bei vielen Nutzern ohnehin meist Däumchen. Die Flaschenhälse sind ganz woanders zu suchen. Beispielsweise bei den Festplatten. Dort besteht dringerender Handlungsbedarf. Schließlich beschäftigen sich nur wenige Nutzer mit der Ausbreitung von Druckwellen nach einer Kernexplosion oder der Entwicklung des Weltklimas in den nächsten Dekanden. Zudem ist die Entwicklung und Fertigung solcher komplexen Prozessoren recht unwägbar für die Unternehmen. Im Desktop- und Workstationbereich kann man jedenfalls aufgrund der verhältnismäßig geringen Preise noch mit verhältnismäßig hohen Absatzzahlen rechnen. Wenn man nun aber Prozessoren mit mehrern Milliarden Transistoren auf den Markt bringt, dann schnellen die Preise schnell soweit in die Höhe, dass ein wirtschaftlicher Misserfolg wenigstens für möglich gehalten werden kann. Für AMD wäre es schlichtweg nicht denkabr sich auf ein solches Wagnis einzulassen. Hierzu benötigt man einfach mehr Ressourcen, wie sie nur deutlich größere Unternehmen mit höheren finanziellen Rücklagen bieten können.
 
Ich glaube wenn man einen solchen Prozessor in absehbarer Zeit auch für das Desktop Segment herausbringen würde, weil sich wohl keine vernünftigen Preisleistungsmaßstäbe mehr einhalten lassen würden. Zumal in diesem Bereich auch gar kein so großer Bedarf nach Prozessoren dieser Leistungsklasse bestehen sollte. Heutzutage drehen die Prozessoren bei vielen Nutzern ohnehin meist Däumchen. Die Flaschenhälse sind ganz woanders zu suchen. Beispielsweise bei den Festplatten. Dort besteht dringerender Handlungsbedarf. Schließlich beschäftigen sich nur wenige Nutzer mit der Ausbreitung von Druckwellen nach einer Kernexplosion oder der Entwicklung des Weltklimas in den nächsten Dekanden. Zudem ist die Entwicklung und Fertigung solcher komplexen Prozessoren recht unwägbar für die Unternehmen. Im Desktop- und Workstationbereich kann man jedenfalls aufgrund der verhältnismäßig geringen Preise noch mit verhältnismäßig hohen Absatzzahlen rechnen. Wenn man nun aber Prozessoren mit mehrern Milliarden Transistoren auf den Markt bringt, dann schnellen die Preise schnell soweit in die Höhe, dass ein wirtschaftlicher Misserfolg wenigstens für möglich gehalten werden kann. Für AMD wäre es schlichtweg nicht denkabr sich auf ein solches Wagnis einzulassen. Hierzu benötigt man einfach mehr Ressourcen, wie sie nur deutlich größere Unternehmen mit höheren finanziellen Rücklagen bieten können.

Auf der anderen Seite will der Markt aber beliefert werden. Wenn nächstes Jahr schon Quadcore Prozessoren kommen, dann gilt es immernoch 3-4Jahre zu überbrücken.
Gut, ob bis 2010 wirklich 32Cores kommen, auf die Diskussion mag ich mich garnicht einlassen...aber mit an Sicherheit grenzender Wahrscheinlichkeit wird sich keiner der beiden Hersteller ab nächstem Jahr auf den 4Kernen ausruhen.
 
Vielleicht kann ja mal einer Nachrechnen wieviel Kerne man bei 22nm auf die gleiche Fläche bekommt wie heut bei 65Nm quad core. Mal davon ausgehend das jeder Kern 512-1MB an Cache bekommt und das die Anzahl der Transis pro Kern nicht steigt.
 
zumindest müßte langsam dem letzten Softwareentwickler klar werden, daß er, wenn seine Software auch nur ein klein wenig Rechenleistung abfragt, mit Threading auseinandersetzen muß.

Greets,
Tom
 
Laut tgdaily.com möchte Intel im 2009/2010er Zeitfenster CPUs mit 32 Cores (daraus resultierend 128 Threads ) herstellen und soll ca 15x mal so perfomant wie ein Xeon 5100 sein. Der Prozessor sollte dann als Konkurrenszprodukt zu Suns Niagara Architektur verstanden werden.
Was meint ihr dazu? Ist Intel mal wieder größenwahnsinnig, oder ist das nur wieder ein Sommerlochfüller, oder ist da doch was dran?

lächerlich! niemals! ;) *buck*

1. das wäre 2007 vier core, 2008 acht core, 2009 sechzehn core und dann 2010 endlich zweiunddreißig cores? na, typisch marketing. alles über vier zu der zeit würde mich da schon wundern. erinnert euch mal lieber an die "stagnation" der letzten zwei jahre!

2. mehr cores? klar, aber ohne höheren takt bringt es auch nichts. und sie müssen sich aus temp-gründen entscheiden: mehr takt oder mehr cores. daher mein tip für 2010: vier cores bei 4ghz *buck*

p.s.: meine ich ernst *suspect*
 
lächerlich! niemals! ;) *buck*

1. das wäre 2007 vier core, 2008 acht core, 2009 sechzehn core und dann 2010 endlich zweiunddreißig cores? na, typisch marketing. alles über vier zu der zeit würde mich da schon wundern. erinnert euch mal lieber an die "stagnation" der letzten zwei jahre!
Du meinst die Quad-Cores von IBM oder 8x Cores von SUN? :]

2. mehr cores? klar, aber ohne höheren takt bringt es auch nichts. und sie müssen sich aus temp-gründen entscheiden: mehr takt oder mehr cores. daher mein tip für 2010: vier cores bei 4ghz *buck*

Und wieso soll nicht beides gehen? Moderate Taktsteigerung bei weiterer Erweiterung der Logik?
 
AMDs Torrenza-Initiative zeigt den Weg zu MultiCores doch klar vor... wobei es dabei nicht geht die Cores faul zu vervielfachen, sondern eben Cores für Spezialbereiche zuintegrieren.

Shearer
 
daher mein tip für 2010: vier cores bei 4ghz *buck*

Klingt nachvollziehbar, aber das wird wohl mit dem Conroe aller wahrscheinlichkeit nach schon 2007 drin sein. Da muss einfach mehr kommen, sonst verkaufen die nix mehr.

Der Markt ist da, der Core-Wahn hat längst begonnen, die Leute wollen kaufen und müssen gefüttert werden.
 
hm... gerade weil wir ja nicht wollen, dass von 32 cores 31 ungenutzt bleiben... wird ja schon am "anti-HT" gewerkelt.
Dinge wie zu hohe ausfallrate, oder keine höheren taktraten mehr... sehe ich nicht als Problem, denn die transistorzahlen steigen schon seit es die ersten Rechner gibt immer weiter und ich würde nicht sagen, dass sich die ausfallrate dabei erhöht hat.... dann würden nähmlich bald keine neuen cpu's mehr im Laden stehen. und während die cpu's komplexer werden, schaffen es die ingenieure sogar noch die Effizienz und oder die Taktraten zu erhöhen.
 
Gut, ob bis 2010 wirklich 32Cores kommen, auf die Diskussion mag ich mich garnicht einlassen...aber mit an Sicherheit grenzender Wahrscheinlichkeit wird sich keiner der beiden Hersteller ab nächstem Jahr auf den 4Kernen ausruhen.
Intel kann ja 2010 8-fach Cores in 32nm fertigen und 4 davon auf einem Träger unterbringen.

Bei 65nm bastelt Intel 2 Dies zu Kentsfield zusammen,
bei 45nm sollen 'echte' Quad-Core kommen die zu 8-fach oder 16-fach zusammenstellbar sind, falls 45nm bei Intel wie vorgestellt sehr sparsam wird. Allerdings hat Intel noch wenig zur Taktrate gesagt, da sollte man eher low power statt GHz erwarten.

Intel hat zudem die Möglichkeit wieder HT einzuführen, was zwar nur 15-30% an Mehrleistung bringen könnte, aber kaum Transistoren und vor allem Verlustleistung mit sich bringt.
Eine 32-fach CPU könnte also auch aus 4 DIEs bestehen, die je 4 physikalisch und 4 logische CPUs enthalten. (korrigiert 1.8.2006)
 
Zuletzt bearbeitet:
Zumal in diesem Bereich auch gar kein so großer Bedarf nach Prozessoren dieser Leistungsklasse bestehen sollte.

Es geht ja nicht darum, jetzt von einem Tag auf den anderen CPUs mit 32 Cores rauszubringen, sondern in einer langsamen Steigerung. Quadcores sind ja schließlich beschlossene Sache und erscheinen auch in einer überschaubaren Zeitspanne, obwohl die DualCores eigentlich erst gerade erschienen sind.
In 3 Jahren wird es auch wieder Leute geben, denen 4 Cores zu wenig sind (dann werden ja auch gerade die ersten Bilder der Unreal Engine 4 draussen sein und jeder versucht zukunftssicher aufzurüsten), weshalb sich zu der Zeit OctaCore-Systeme ähnlich gut verkaufen lassen wie jetzt DualCores.
 
Ein Programm sollte am Besten für "eine" CPU geschrieben werden,dann ist mit hoher Leistung zu rechnen(Performens) Meine frage, wer soll in drei teufels namen diese Aufgabe erledigen? AMD Anti H.T. , INTEL H.T. was für ein krasser gegensatz.was soll das werden? was sollen die Programierer schreiben??*noahnung* Wenn alle an einem Strang ziehen, haben auch "wir "als Endkunden was davon8)

mfg arne
 
Wenn alle an einem Strang ziehen, haben auch "wir "als Endkunden was davon8)
Was dort von Intel entwickelt ist wohl eine Art Itanium III. Den wirst du als Endkunde eh nie zu Gesicht bekommen. 8)
 
Eine 32-fach CPU könnte also auch aus 2 DIEs bestehen, die je 4 physikalisch und 4 logische CPUs enthalten.

Du hast dich leicht verrechnet, wenn man 2 dies mit 4 cores und ht zusammenschweißt hat man keine 32 logischen cores sondern nur 16. (4[cores pro Die]*2[HT])*2[die's]=16
obwohl ich deiner überlegung gut folgen kann. und 32cores wenn man es so betrachtet nix besonderes ist.


Zu HT und Anti-HT: Intel kann ruhig weiter HT benutzen, da dies sie bestimmt nicht daran hindert gleichzeitig Anti-HT auf ihren prozessoren zu integrieren. Dadurch kann man gut mit vielen cores dank ht angeben und bekommt gleichzeitig leistung, dank anti-ht. beides gleichzeitig zu betreiben währe allerdings schwachsinnig, mann müsste je nach anforderungen der anwendung das eine oder das andere deaktivieren.

interessant wäre ein gleichzeitiger betrieb beider technologien erst bei Multitasking (eine anwendung, die in mehreren threads arbeitet und gleichzeitig eine, die die singlecore ist.

Andererseits, wenn Anti-HT in Prozessoren vollständig integriert ist und kaum leistungsverluste zu per hand optimiertem bringt (vieleicht sogar schneller ist) welcher programmierer optimiert sein Programm dann noch für Multicore? .... dann hätte das Anti-HT über das HT gesiegt. ;D

und wenn es soweit ist, hat Intels Marketingabteilung entschieden, dass multicore das nonplusulta zu werbezwecken ist und intel baut 300 Core Prozis, die zwar Langsamer sind als es ein 100 Core prozessor, aber Marketing hat entschieden.*lol* 8)

Seid ihr schonmal auf die idee gekommen, das es vieleicht sogar möglich wäre einen Core nicht ganze 64 bit eines Befehls rechnen zu lassen, sondern, dass man das z.b. bei vier cores vieleicht auf 4*16Bit aufteilen könnte? würde mich echt interessieren ob das geht, oder ob es bei sowas zu Syncronisierungsoverkills kommt. oder funktioniert ant-ht genau so?

wie soll Anti-HT überhaupt funktionieren?... ok das is nen anderes thema.
 
Die ganze Multicore geschichte mit 4 und mehr kernen hat doch für den otto-Normalverbraucher gar keinen so tollen Nutzen,ich denke das sich max.15-20% dieser CPU's im privaten Haushalt wiederfinden werden.Selbst wenn ich das Geld hätte dann habe ich nur 2 Hände und zwei Augen,eine tastatur und einen Moni...gleichzeitig in 3 oder 4 oder gar mehr Anwendungen rumklicken (aktiv zooggen und chatten gleichzeitig?...lol,das rendern nebenbei nicht vergessen und mind.alle 10 Sekunden das Bild minimieren um zu schauen wie weit der Film ist*buck* )Da sich enorme Vorteile auftuen werden bei 8 oder 16 kernen mit grossem Cache und gutem takt ist klar,aber eine praktische anwendung im alltäglichen PC Umgang bleibt wohl eher "erzwungen".

da AMD ATi gefressen hat und vielleicht Intel Nvidia schluckt,werden evtl.zukünftige CPUS gleichzeitig GPUs sein.Eine Kombination von GPU&CPU auf einem Chip wär mal was neues,natürlich mit VRam auf dem Sockel,wer will den schon steckplätze oder gar so grosse olle karten?! :P
 
Die ganze Multicore geschichte mit 4 und mehr kernen hat doch für den otto-Normalverbraucher gar keinen so tollen Nutzen,ich denke das sich max.15-20% dieser CPU's im privaten Haushalt wiederfinden werden.Selbst wenn ich das Geld hätte dann habe ich nur 2 Hände und zwei Augen,eine tastatur und einen Moni...gleichzeitig in 3 oder 4 oder gar mehr Anwendungen rumklicken (aktiv zooggen und chatten gleichzeitig?...lol,das rendern nebenbei nicht vergessen und mind.alle 10 Sekunden das Bild minimieren um zu schauen wie weit der Film ist*buck* )Das sich enorme Vorteile auftuen werden bei 8 oder 16 kernen mit grossem Cache und gutem takt ist klar,aber eine praktische anwendung im alltäglichen PC Umgang bleibt wohl eher "erzwungen".

da AMD ATi gefressen hat und vielleicht Intel Nvidia schluckt,werden evtl.zukünftige CPUS gleichzeitig GPUs sein.Eine Kombination von GPU&CPU auf einem Chip wär mal was neues,natürlich mit VRam auf dem Sockel,wer will den schon steckplätze oder gar so grosse olle karten?! :P
 
a) und 32cores wenn man es so betrachtet nix besonderes ist.


b) wie soll Anti-HT überhaupt funktionieren?... ok das is nen anderes thema.
a) Intel hat ja schon vor Jahren die Ansammlung mehrer DIEs auf einem Träger vorgestellt.
Im Prinzip wäre ein Design gemäß Pentium D 8xx, also einfach nicht zwei technisch unabhängige DIEs zu zerschneiden der einfachste Zugang zu vielen Cores.
32 Cores sind aus heutiger Sicht im privaten Bereich Unsinn, aber das Zeichen GPU mit den vielen parallelen Einheiten zeigt, daß sowas vielleicht doch kommen könnte.
Simulationen, Sprech-/Bilderkennung, da ist manches denkbar.


b) Anti-HT, wohl denkbar, aber auch technisch machbar und performant ?
 
Zurück
Oben Unten