Intel ab 2008 auch mit integriertem Memory-Controller?

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Als AMD 2003 zuerst mit dem Opteron, später mit dem Athlon 64 die neue K8-Architektur auf den Markt brachte, war der eigentliche CPU-Kern nicht wirklich eine absolute Neuentwicklung ausgehend von einem weißen Blatt Papier. Die Struktur der K8-Architektur ist seinem Vorgänger K7 mehr als nur ähnlich. Diese Meldung, die 2001 nach einem <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=986577076">Interview mit AMD</a> zuerst auf Planet 3DNow! zu lesen war, hat damals <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=986821412">hohe Wellen</a> geschlagen. Doch warum ist der Athlon 64 gegenüber dem Athlon oder Athlon XP trotzdem um so viel schneller, wenn sie sich so ähnlich sind?

Der größte Unterschied zwischen K7 und K8 liegt - neben der 64-Bit Fähigkeit - hauptsächlich in der Anbindung zur Außenwelt. Während die K7-Infrastruktur zuletzt chronisch an der mangelnden Bandbreite zwischen Chipsatz und CPU krankte, wollte AMD beim K8 Nägel mit Köpfen machen und eliminierte den klassischen Frontside-Bus gleich völlig (siehe <a href="http://www.planet3dnow.de/artikel/hardware/a64/6.shtml">Details</a>). Stattdessen ist der Memory-Controller bei der K8-Plattform bekanntlich direkt in die CPU integriert worden. Eine Verbindung zwischen CPU und einem im Chipsatz sitzenden Memory-Controller gibt es in Ermangelung dessen nicht mehr. Vorteil: kein Flaschenhals in Form eines langsamen Frontside-Bus, deutlich kürzere Latenzen weil kürzere Wege. Da aber auch der K8 natürlich noch mit dem Chipsatz verbunden sein muss, um Daten zur Northbridge, zur Grafikkarte, zum IDE-Controller etc. schicken zu können, entwickelte AMD dafür einen völlig neuen Link, der heute unter HyperTransport-Protokoll bekannt ist. Einen ausführlichen Artikel dazu findet Ihr <a href="http://www.planet3dnow.de/artikel/diverses/ht/index.shtml">hier</a>.

Intel dagegen ging den Weg des integrierten Memory-Controllers auch bei der Einführung seiner letzten CPU-Generation, dem Core 2 Duo, nicht. Aus Sicht von Intel bietet ein Memory-Controller auf dem Mainboard eine höhere Flexibilität. Ferner setzt Intel seit dem Pentium 4 auf einen Quadpumped-Frontsidebus, der einen deutlich höheren Durchsatz bietet, als der alte Double-Data-Rate-FSB des K7. Trotzdem ist es möglich, dass Intel mittelfristig dem AMD-Konzept folgt und ebenfalls auf einen integrierten Memory-Controller umschwenkt. Dies meldet zumindest <a href="http://uk.theinquirer.net/?article=35892" TARGET="_blank">The Inquirer in einem Artikel</a>. Dabei geht es um eine Intel-CPU mit Codenamen Bloomfield.

Wenn Intel einen integrierten Memory-Controller verbauen will, der übrigens DDR3-Speicher kompatibel sein soll, dann muss Intel natürlich analog zu AMDs HyperTransport-Protokoll eine neue Anbindung zur Außenwelt erfinden. Ob dies über eine neue gerade in Entwicklung befindliche Common Serial Interconnect oder Common System Interface genannte Technologie geschehen wird, über eine andere, bisher nicht kommunizierte Lösung, oder gar über einen von AMD lizenzierten HyperTransport-Link (äußerst unwahrscheinlich) muss abgewartet werden.

Im Übrigen soll die neue Intel-CPU auch wieder ein Feature bekommen, das von der Pentium-4-Netburst-Architektur noch bestens bekannt ist: <a href="http://www.planet3dnow.de/artikel/diverses/doping/14.shtml">Simultaneous Multi-Threading (SMT)</A> alias HyperThreading (nicht zu verwechseln mit dem oben genannten HyperTransport-Link) in optimierter Form. Der aktuelle Core 2 Duo muss darauf ja verzichten, was er gut verschmerzen kann, kann er doch genau wie der Athlon 64 X2 dank Dual-Core Bauweise auf echtes <a href="http://www.planet3dnow.de/artikel/diverses/doping/11.shtml">Symmetric Multi-Processing (SMP)</a> zurückgreifen. Der Boomfield dagegen soll wohl eine Kombination aus SMP und SMT bekommen. Bisher natürlich noch alles Spekulation, aber die Gerüchteküche wie auch die Entwicklung der letzten Jahre zeigt deutlich wohin die Reise geht: massive Parallelisierung statt fortwährende Steigerung der Taktfrequenzen. Man darf gespannt sein...
 
Der Name für diese neue Art der Anbindung zum Speicher, wurde mal erwähnt. Habe es aber wieder vergessen. Was HT angeht, kann ich es gut verkraften das es fehlt. Wer die Technik kennt, weiß das sich im ungünstigen Fall auch als Nachteil herraustellen kann. Lieber 2 physikalische Cores, als 1 physikalischer und 1 logischer.

HT, war wohl beim P4 eine gute Sache seine "Schwäche" gegenüber AMD auszugleichen, aber heute ?

Ab 2008 wissen wir mehr, und was dann davon Wahrheiten und Halbwahrheiten waren.
 
[träum]
Ja Intel bekommt von AMD den HT Bus und AMD dafür die Intel Sockel inkl. integration in
die Chipsätze. Schon kann man wieder wie damals eine AMD CPU oder eine Intel CPU in
sein Mobo stopfen. Ja ich weis das wird nie passieren... leider.... :-[
[/träum]
 
Int. Memorycontroller zwingt Intel aber mittelfristig auch zur GPU on CPU.

Eine externe Northbridge mit GPU, welche erst über eine spezielle Anbindung und die CPU zum Speicher geht, ist verzögernd.

Zumindest am Anfang kann jener Socket nicht die Mainstream-Basis für Intel sein.
Später = viele 45nm Fabs bei Intel - dann vielleicht aber doch GPU on CPU als Mainstream.
 
Naja ich bezweifel mal, dass die paar Prozent Performanceverluste durch Verzögerungen bei IGPs überhaupt relevant sind.
 
Im Übrigen soll die neue Intel-CPU auch wieder ein Feature bekommen, das von der Pentium-4-Netburst-Architektur noch bestens bekannt ist: <a href="http://www.planet3dnow.de/artikel/diverses/doping/14.shtml">Simultaneous Multi-Threading (SMT)</A> alias HyperThreading (nicht zu verwechseln mit dem oben genannten HyperTransport-Link) in optimierter Form.
Der Satz wäre anders formuliert besser gewesen, denn so könnt man schließen, das man das bei der neuen CPU auch wieder Hyper Threading nennen wird, was aber weder klar noch logisch ist...

@rkinet
Das eine hat doch mit dem anderen nichts zu tun!!
Außerdem:
Wird eher ein Streamprozessor integriert werden.
Das GPUs aus 'ner Menge davon bestehen, ist reiner Zufall ;) ;)
.
EDIT :
.

[träum]
Ja Intel bekommt von AMD den HT Bus und AMD dafür die Intel Sockel inkl. integration in
die Chipsätze. Schon kann man wieder wie damals eine AMD CPU oder eine Intel CPU in
sein Mobo stopfen. Ja ich weis das wird nie passieren... leider.... :-[
[/träum]
Naja, hier kommts drauf an, was die anderen machen!

Was Sun, IBM und Co machen, mit ihren Prozessoren, ob die denen nicht auch 'nen HT Link geben und damit die 'AMD Plattform' unterstützen (spart 'ne Menge Geld, von daher nicht auszuschließen)...

Apples letzte G5 Macs haben übrigens einen 'K8 Chipsatz' benutzt, um genau zu sein wurd da der HT2000/1000 von Serverworks/Broadcom verbaut.
&#8364;dit: Dazu passt auch diese Meldung

Kurzum:
Es wird 2 Lager geben:
a) Intel
b) 'The Rest'.
 
Zuletzt bearbeitet:
[3DC]Payne;2976153 schrieb:
Kurzum:
Es wird 2 Lager geben:
a) Intel
b) 'The Rest'.
Naja wird wohl etwas unschärfer kommen. IBM tanzt ja anscheinend auf beiden Hochzeiten. Auf der einen Seite sind sie für torrenza, auf der andren Seite arbeiten sie Intel bei geneseo (oder wie immer das iHTr heißt) hin.
Die fahren also zweigleisig. Einzig Sun wird wohl 100% auf AMD Linie einschwenken, da gibts ja einige größere Differenzen mit Intel ;-)

Bin mal gespannt, in welchen Sockel der Rock Prozessor kommt :)

ciao

Alex
 
Den einzigen Vorteil den ich bei einem internen Memory Controller sehen würde, wäre eine einfachere Virtualisierung jenes. Aus diesem Grund finden sich bei Serverprozessoren seit Neustem auch schon Netzwerkschnittstellen im Prozessor.

Quelle: http://www.heise.de/newsticker/meldung/79281
 
[3DC]Payne;2976153 schrieb:
@rkinet
Das eine hat doch mit dem anderen nichts zu tun!!
Außerdem:
Wird eher ein Streamprozessor integriert werden.
Das GPUs aus 'ner Menge davon bestehen, ist reiner Zufall
Streamprozessor - s. Mai'06 http://www.plm.eecs.uni-kassel.de/p.../unik_s_gpgpu_basiskonzepte_folien_ss2006.pdf

Das Problem CPU. GPU und allg. Streamprozessor kann auch die Lösung CELL ergeben.

Im Prinzip erscheint es logisch nicht nur per 45/32nm Fertigung die Zahl der x86-64 Cores zu erhöhen, sondern auch noch Kapazität für alternative Bearbeitungskonzepte zu integrieren.

Zudem wird auch ein Quad-Core (mit viel Cache) ein DDR-3/4 Speicherinterface nur teilweise nutzen können.
GPUs oder Streamingprozesse sind da viel bandbreitenhungriger (s. auch wieder CELL) und könnte sich an der freien Bandbreite bedienen.

Bei CPUs und GPUs haben sich aber bedingt durch die Taktraten schon verschiedenen Lösungen zur Performancesteigerung etabliert.
Die CPU wird in naher Zukunft sich bei 2-3 GHz 'stabilisieren', mit univesellen 2-4 Cores.
Die GPU hat 0,5-1 GHz und 4-32 spezialisierten 'Cores'.
Vielleicht wird man die GPU-Cores virtualisieren bzw. analog SMT einfach ein schnelles Rechenwerk (also wie die SSE-Unit) einfach für nun jeweils 4-8 virtuelle Vorgänge nutzen.
Beim CELL müssen die 'nur' 7-8 SPEs vom Programmierer /Bibliotheken entsprechend mit Code versorgt werden.

Intel hat viel Erfahrung mit SMT = HT, während AMD im Umfeld 'Virtualisierung' incl. I/O viel Arbeits erledigt hat. Prinzipiell könnten also virtuelle Streamingprozessoren mit rechnerischen Taktraten heutiger GPUs mit intern deutlich schnellerer, aber trotzdem transistor und energiesparender Fertigung erstellt werden.

Ich glaube, daß wie 2008-2010 die Ablösung der heutigen 'Transistorgräber' in Grafikkarten erleben werden.
Man kann auch nicht erwarten, daß heutige Spitzen-GPUs mit 300-500 Mill. Transistoren tatsächlich mal stromsparend und mit großer Ausbeute als $15-$40 Chip machbar werden. Zusammengestutzt per virtuellen Units und mit den 2-4 CPU-Cores auf einem DIE für dann vielleicht $100 VK sieht die Kalkulation viel besser aus.
 
Da aber auch der K8 natürlich noch mit dem Chipsatz verbunden sein muss, um Daten zur Northbridge, zur Grafikkarte, zum IDE-Controller etc. schicken zu können, entwickelte AMD dafür einen völlig neuen Link, der heute unter HyperTransport-Protokoll bekannt ist.
Diesen Satz würde ich vielleicht noch einmal überarbeiten, denn es war natürlich nicht AMD alleine, die diesen Standard geschaffen haben. Ähnlich wie bei der JEDEC oder PCI-SIG gab es auch hier ein Konsortium, welches sich mit der Schaffung des Standards beschäftigt hat. Hier war AMD natürlich führendes Mitglied, aber auch andere Unternehmen, wie IBM oder wo [3DC]Payne schon die Verwendung von Hyper Transport fähigen Chipsätzen in der PowerMac G5 Serie anspricht Apple. Mit im Boot sind auch Broadcom, von den diese besagten Chipsätze stammten, und weiterhin noch Sun, Transmeta und viele anderen, wie nVidia.

Siehe auch: http://www.hypertransport.org/consortium/index.cfm
 
Diesen Satz würde ich vielleicht noch einmal überarbeiten, denn es war natürlich nicht AMD alleine, die diesen Standard geschaffen haben.
Ich würden den so lassen, denn AMD hat den unter Lightning Data Transport (LDT) sehr wohl alleine entwickelt. Später(als LDT fertig war) haben sie dann die Rechte dem Konsortium abgetreten, dem jeder beitreten kann, der es interessant findet ...

Einzig API NetWorks hat da vielleicht mitentwickelt, aber das war ebenfalls vor den off. Konsortium Zeiten.

http://www.amd.com/us-en/Weblets/0,,7832_8366_7595~751,00.html

ciao

Alex
 
Naja wird wohl etwas unschärfer kommen.
Nope, siehe Transmeta, die ja jetzt schon auf die K8 Chipsätze zurückgreifen (können) oder aber ebne die Power PC Prozessoren, für die es einen 'Chipsatz' gibt, der einfach nur 'nen CPU Interface, 'nen Speichercontroller und 'nen HT Link für die K8 CHipsätze.

Und eben genau so meinte ich das, das die Hersteller vermehrt HT Links einbauen, um die K8 Infrastruktur nutzen zu können, Sockelkompatibel müssens ja nicht unbedingt sein, dank Tourranza ist das aber durchaus möglich, was nochmal kosten spart...

Von daher wirds nur noch Intel vs. alle anderen geben...
 
Warum denn ein Gegenstück zum HT entwickeln, könnte man da nicht einfach weiter den FSB nehmen, der dann ja von der Last des direkten RAM-Verkehrs etwas befreit würde und bei Northbridges ohne Grafikkern doch wohl ausreichen würden.?!
 
Zurück
Oben Unten