Planet 3DNow! Logo  

 
English Français Русский язык Español Italiano Japanese Chinese

FORUM AKTUELL

   

Mittwoch, 30. Mai 2007

00:09 - Autor: Nero24

Windows Vista nicht für Multi-Core Systeme geeignet?

Eigentlich ist diese Erkenntnis, die Ty Carlson, Direktor für technische Strategie bei Microsoft, im Rahmen einer Podiumsdiskussion auf der Future-in-Review-Konferenz zum ersten Mal auch öffentlich verlauten ließ, nichts Neues. Die Microsoft Windows Betriebssysteme im allgemeinen skalieren nicht besonders gut in Systemen mit mehreren Prozessoren oder mehreren Prozessorkernen. Da macht auch Microsofts neuestes Rennpferd namens Vista keine Ausnahme.

Wieso ist dem so? Wie wir alle wissen ist Windows in der x86-Welt groß geworden. Während Betriebssysteme wie Unix seit jeher auf verschiedensten Plattformen im Highend- und Enterprise-Segment eingesetzt werden, war Windows schon immer das 08/15-System für den Intel kompatiblen Personal-Computer. Die Windows-Entwickler mussten sich in den letzten 20 Jahren nie Gedanken machen wie wohl ihr Betriebssystem oder ihre Applikationen auf einem Server mit 128 Prozessoren arbeiten würde, da kein Administrator, der noch ganz bei Trost ist, jemals auf die Idee gekommen wäre, Windows auf so einem System einzusetzen. Nein, x86-kompatible CPU und ein Prozessor pro System waren über fast zwei Dekaden hinweg gültige Konstanten. Den kurzen Abstecher in die DEC-Alpha- und Itanium-Welt, sowie die paar Workstations mit zwei Prozessoren fallen in der Gesamtabrechnung nicht wirklich auf.

Seit zwei Jahren jedoch beginnt sich die Welt der Personal-Computer zu wandeln. Das Gigahertz-Rennen ist vorbei. Statt möglichst hohe Taktfrequenzen aus einem Prozessor herauszuquetschen, gehen AMD und Intel nun auch bei den PCs den Weg der Parallelisierung. Zwei Prozessorkerne in einem System sind heute schon beinahe Standard, Prozessoren mit vier Kernen existieren bereits und werden in den nächsten Monaten deutlich an Bedeutung gewinnen. Doch damit ist das Ende der Fahnenstange natürlich noch nicht erreicht, schließlich kann man auch zwei Vierkern-Prozessoren auf ein Dual-Sockel Board stecken und hat damit bereits 8 CPU-Kerne in einem System. Und selbst das ist noch gar nichts. Intel arbeitet bereits an Prototypen mit 80 Kernen und da sind die logischen CPUs via HyperThreading noch gar nicht mitgerechnet.

Was auf dem Papier so einfach klingt - man nehme einfach mehrere Kerne und erfreue sich an ver-x-fachter Leistung - ist in der Praxis alles andere als trivial. Hier hat in erster Linie das Betriebssystem dafür Sorge zu tragen, dass die zahlreichen CPUs oder CPU-Kerne auch ordentlich mit Arbeit versorgt werden. Und hier hapert es bei den Windows-Betriebssystemen ganz gewaltig. Vier CPU-Kerne kann der Vista-Scheduler noch ganz gut mit Arbeit eindecken. Bei Systemen mit noch mehr Kernen fängt Windows dann an zu deckeln. Das Potenzial der Hardware liegt brach.

Die Probleme liegen dabei aber wesentlich tiefer verwurzelt, als nur am Scheduler. Auch die zahlreichen Anwendungen, Tools und Bibliotheken sind in keinster Weise ausgelegt für derart viele CPUs. Dazu müssten die Programme frei skalierbare Arbeitsthreads besitzen, die je nach Anzahl der CPUs/Kerne aktiviert werden können. In der Praxis ist es aber in der Regel auch heute noch so, dass die meisten Anwendungen noch immer nur einen Arbeitsthread besitzen, da das am einfachsten zu programmieren ist. Grund: Anwendungen wie Betriebssysteme entstehen mit einer neuen Version nicht mehr auf dem weißen Blatt Papier, sondern stellen Evolutionen der Vorgängerversionen dar.

Vor knapp 5 Jahren im Herbst 2002 hat Intel die HyperThreading-Technologie eingeführt. Zum ersten Mal mussten sich die Entwickler mit dem Thema Simultaneous Multithreading für eine breite Anwenderschaft auseinandersetzen. Seitdem hat sich einiges getan und doch ist die Bandbreite an SMT-/SMP-Anwendungen noch immer erschreckend gering. Die meisten Anwender profitieren von ihren Dual-Core Systemen derzeit nur insofern, als dass sie mehrere Anwendungen gleichzeitig laufen lassen können ohne dass eine die andere ausbremst. Echte Multithreading-Anwendungen in breiter Kundenhand dagegen kann man noch immer an zwei Händen abzählen (WinRAR, ein paar Photoshop-Filter, DivX-Codec, ...).

Bis sich das ändert, werden noch weitere Jahre ins Land ziehen. So räumt Microsoft ein, dass Windows für die Multi-Core Systeme der Zukunft radikal geändert werden müsse. Angesichts der normalen Lebenszyklen eines MS-OS dürfen wir mit einem solchen Produkt aus dem Hause Microsoft wohl nicht vor 2012 rechnen. Bis dahin werden die Hardware-Hersteller mitunter Probleme bekommen, ihren Kunden die Notwendigkeit von 8- oder 16-Core Systemen anhand von Benchmarks zu vermitteln...
Danke thunderbuster für den Hinweis

Links zum Thema:» Kommentare
Planet 3DNow! RSS XML Newsfeed Planet 3DNow! Newsfeed bei iGoogle-Seite hinzufügen Planet 3DNow! Newsfeed bei My Yahoo! hinzufügen Planet 3DNow! Newsfeed bei Microsoft Live hinzufügen Planet 3DNow! Newsfeed bei My AOL hinzufügen

Weitere News:
Intern: Umleitungsprobleme
Intern: Planet 3DNow! ab 18:00 Uhr eingeschränkt erreichbar
Never Settle Forever: AMD überlässt Zusammenstellung der Spielebündel seinen Kunden
Microsoft Patchday August 2013
Der Partner-Webwatch von Planet 3DNow! (13.08.2013)
Kühler- und Gehäuse-Webwatch (11.08.2013)
Ankündigung Microsoft Patchday August 2013
Vorerst kein Frame Pacing für AMD-Systeme mit Dual Graphics
Intern: kommende Woche eingeschränkte Erreichbarkeit auf Planet 3DNow!
Kaveri verschoben und keine neuen FX-Prozessoren von AMD [3. Update]
AMD plant Vorstellung neuer High-End-Grafikkarte Hawaii im September
Kaveri verschoben und keine neuen FX-Prozessoren von AMD [Update]
Der Partner-Webwatch von Planet 3DNow! (06.08.2013)
Kaveri verschoben und keine neuen FX-Prozessoren von AMD
AMD startet neue "Never-Settle-Forever"-Spielebündel für Radeon Grafikkarten
Neuer Artikel: SilverStone Fortress FT04 - Die Hardware steht Kopf

 

Nach oben

 

Copyright © 1999 - 2019 Planet 3DNow!
Datenschutzerklärung