Vanderpool

Seemann

Admiral Special
Mitglied seit
17.04.2002
Beiträge
1.726
Renomée
43
Standort
Langenhagen
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
Vanderpool steht wohl kurz vor der Einführung, früher als erwartet wird es Einzug in den nP4 halten. Gerüchten zu Folge soll es bereits im Prescott-Core enthalten sein, möglicherweise auch schon in den 600er oder den späteren Smithfield-800er-Cores enabled sein. AMD wird ebenfalls bald mit Pacifica nachziehen (~2006).

Die Grundlagen sind soweit klar, es sollen mehrere Betreibssysteme unabhängig ausgeführt werden können - für Server erschließt sich mir der Vorteil sofort, aber Intel postuliert ja auch einen Nutzen für den Joe-Sixpack-Office-PC oder den Home-Computer. Wo aber liegt denn hier eigentlich der Vorteil. Plump gesagt bringt es mir doch keinen Vorteil, wenn ein Sachbearbieter mit einem mal zwei Betriebssysteme laufen hat - Office (OpenOffice natürlich ;) ) wird ja dadurch auch nicht schneller oder stabiler. Programmierer haben hier vielleicht eher mal einen Vorteil, weil sie ein Programm "durch Umschalten auf Knopfdruck" unter zwei BS testen können.

Wer weiß mehr?
 
Es könnten aber 2-3 Sachbearbeiter an einem PC arbeiten. Wo der Vorteil für Intel und die PC-Bauer ist, bleibt allerdings fraglich...

Shearer
 
Original geschrieben von Shearer
Es könnten aber 2-3 Sachbearbeiter an einem PC arbeiten. Wo der Vorteil für Intel und die PC-Bauer ist, bleibt allerdings fraglich...

Shearer

Das geht bei Linux schon seit Ewigkeiten problemlos und ist schneller als 2 komplette OS laufen zu lassen ;).

Bei Windoofs gehts afaik auch.



Ehrlich gesagt will sich mir da auch kein Vorteil erschließen. Wahrscheinlich wieder ein Leckerlie für die Marketingabteilungen.
 
@Seemann

Ja da bin ich auch irgendiwe ratlos. Möglicherweise will man Windows neben Linux parallel laufen lassen. Während das eine OS abraucht, kann der andere Mitarbeiter parallel immer noch am anderen OS arbeiten ... nur, wie Shearer schon sagte, wo besteht der Sinn für Prozessorbauer CPUs einzusparen, da statt 3 Rechner nun nur noch Einer gebraucht wird *chatt* *oink*?

Is dies lediglich der PR-(Ablenkungs)Mantel, der dann mit vermeintlichen Goldglanz La Grande/Presidio überstrahlt? =>
Wahrscheinlich wieder ein Leckerlie für die Marketingabteilungen.
... Sieht wohl so aus.

Wer weiss, möglicherweise baut MS gar nicht ein Monolithisches-Nachfolge OS, sondern unter Longhorn (oder was weiss ich) laufen in Wirklichkeit viele OS ab? Natürlich gewürzt mit den Töchtern und Söhnen von TCPA.

MFG Bokill
 
Zuletzt bearbeitet:
Pacifica/Presidio und deren Intel-Pendants sind doch IMHO Forderungen von Microsoft an die CPU-Bastler... freiwillig haben sie sich das nicht aus den Rippen geschnitzt.

Shearer
 
Is dies lediglich der PR-(Ablenkungs)Mantel, der dann mit vermeintlichen Goldglanz La Grande/Presidio überstrahlt?

Wer weiss, möglicherweise baut MS gar nicht ein Monolithisches-Nachfolge OS, sondern unter Longhorn (oder was weiss ich) laufen in Wirklichkeit viele OS ab? Natürlich gewürzt mit den Töchtern und Söhnen von TCPA.

... die Vision hinter TCP beruht auf vier Hauptsäulen:

1) Protected Input/Output

2) Sealed Storage

3) Attestation

4) Protected Execution

Das letzte davon läßt sich auch mittels Virtualisierung lösen, und zwar dann wenn die entsprechende Funktionalität in den VMM integriert wird. 2) und 3) erledigt ein TPM, bleibt noch 1) was notgedrungen Änderungen an Chipset und CPU bedeutet.

Ich tippe mal darauf, dass MS vom Ursprünglichen NGSCB Design abweichen wird und erst mal mit Virtualisierung einige der Kompatibilitätshürden umschifft. D.h. der Domain Manager wird zum VMM mutieren.
 
ich finde dies sinnvoll so könnte ich ein linux und ein windows system parallel laufen lassen und die vorteile von beiden nutzen.
auf alle fälle sollte linux so mehr user anziehen.
 
Original geschrieben von Shdow
ich finde dies sinnvoll so könnte ich ein linux und ein windows system parallel laufen lassen und die vorteile von beiden nutzen.
auf alle fälle sollte linux so mehr user anziehen.
Aber mein Bildschirm kann doch immer nur eine Oberfläche anzeigen. Was nutzt mir da ein anderes BS im Hintergrund?
 
Man würde das schon irgendwie "umschalten" können.


Aber ich denke, dass zukünftige MS OSe selbst mehrere Virtualisierungen beanspruchen könnten.
 
Original geschrieben von Seemann
Aber mein Bildschirm kann doch immer nur eine Oberfläche anzeigen. Was nutzt mir da ein anderes BS im Hintergrund?

Interessant ist das Ganze nur dann, wenn ich die Rechenleistung variabel auf die einzelnen Systeme verteilen kann ... also ein BS mit der "Arbeitsanwendung" und eines mit Internet im Hintergrund. Aber ob das den Aufwand wert ist? :]
 
Original geschrieben von Seemann
Aber mein Bildschirm kann doch immer nur eine Oberfläche anzeigen. Was nutzt mir da ein anderes BS im Hintergrund?
Da hilft vielleicht das Beispiel aus dem entsprechenden Patent von AMD:

Man stelle sich einen Linux-Desktop vor, auf dem ein Word-Fenster zu sehen ist (ohne Wine&Co.). Man soll dann also "fensterweise" mit einem anderen OS arbeiten können. Wobei dann noch zu klären bleibt, wie das Sharing der Grafikressourcen u.ä. erfolgt. Das dann entsprechende Treiber- und sonstige Softwareunterstützung nötig wird, ist auch angedeutet.
 
ich sehe es eher im übergang mit longhorn

es war doch so dass viele noch bei win 98 geblieben sind
wegen dem treibersupport und den angeblichen vorteilen


jetzt könnte man dann longhorn und WinXP laufen lassen
microsoft könnte dann auch 2 lizenzen verticken :D

hätte somit die vorteile des neuen systems und die gute ausgereifte basis des "alten" WinXP

--
für firmen ist es sowieso besser
bei uns laufen für simpelste büroarbeiten
ein 1700mhz P4
theoretisch könnte ein computer bei uns in der firma auch 10 terminals ersetzen und währe von der rechenleistung nicht ausgelastet ...
--


TCPA ist doch kein problem mit den entsprechenden cracks
siehe digital rights :D
 
Original geschrieben von Seemann
Aber mein Bildschirm kann doch immer nur eine Oberfläche anzeigen. Was nutzt mir da ein anderes BS im Hintergrund?

genausoviel wie ein 2. task der gerade in deinem rechner läuft du kannst ja auch immer nur mit einem task zu einer zeit arbeiten.
du arbeitest ja bestimmt auch mit mehreren tasks warum also nicht verschiedene tasks mit verschiedenen BS'en?

es gibt unter linux super viel gute open source software. dann könnte man die nutzen ohne für windows teure programme kaufen zu müssen nur weil man auf ein bestimmtes windows programm angewiesen ist. und es ist ja auch blöd ständig neu zu booten um zu wechseln...
 
Original geschrieben von Shdow
genausoviel wie ein 2. task der gerade in deinem rechner läuft du kannst ja auch immer nur mit einem task zu einer zeit arbeiten.
du arbeitest ja bestimmt auch mit mehreren tasks warum also nicht verschiedene tasks mit verschiedenen BS'en?

es gibt unter linux super viel gute open source software. dann könnte man die nutzen ohne für windows teure programme kaufen zu müssen nur weil man auf ein bestimmtes windows programm angewiesen ist. und es ist ja auch blöd ständig neu zu booten um zu wechseln...
Zugegeben eine sehr reizvolle Idee, aber mir scheint das kein alltägliches Problem zu sein. Ich zumindest hatte noch nie das Bedürfnis per [Alt] +
das BS zu wechseln.
 
Für sowas gibts momentan Sachen wie VMWare, wo man auch einfach mal eben ein anderes OS hat.


Inzwischen benutzt ich das aber fast garnicht mehr, weil ich es einfach nicht brauch.
 
... warum auch immer.

Ich meine die Virtualisierung. Ich habe immer noch keine Peilung, wie Seemann auch, weswegen Lieschen Müller und Joe Sixpack unbedingt so etwas brauchen. Und wie Shearer nehme ich auch nicht an, dass die Prozessorhersteller weniger CPUs verticken wollen. *oink*

Virtualisierungslösung Xen bald im Linux-Kernel
... Mit Xen lassen sich auf einem PC mehrere Betriebssysteme parallel betreiben. Ähnliches ermöglichen Programme wie VMWare, Bochs oder User-Mode-Linux. Diese nutzen jedoch einen anderen Ansatz zur Emulation, der das System teilweise deutlich ausbremst. Bei Xen soll der Einfluss auf die Performance deutlich geringer sein ...

Die Softwarewelt frickelt jedenfalls immer weiter daran ...

MFG Bokill
 
Zuletzt bearbeitet:
Original geschrieben von Bokill
Ich meine die Virtualisierung. Ich habe immer noch keine Peilung, wie Seemann auch, weswegen Liesschen Müller und Joe Sixpack unbedingt so etwas brauchen.

Liesschen Müller und Joe Sixpack wahrscheinlich nicht, aber Provider, die ganze Serverfarmen in Rechenzentren halten und die (Web-)Server vermieten, können mit sowas bestimmt einiges anfangen. Damit lässt sich die vorhandene Rechenleistung bestimmt deutlich besser ausschlachten.
Auf dem Desktop ist es für mich nach wie vor Blödsinn, aber ich lasse mich da von Intel und AMD gerne eines besseren belehren.
 
Also für den Windowsler könnte ich mir auch vorstellen, dass der seine verwurmten Emails in einem virtuellen "Quarantänesystem" öffnet, anstatt die gleich auf den kompletten Rechner loszulassen. Ich freu mich persönlich drauf, ohne weiteres mal eben 'ne Kopie von meinem System zu ziehen und dann diverse Spielereien reinzupatchen ohne Angst, dass ich mir was zerschieße :D Von den Möglichkeiten eines virtualisierten Webservers will ich gar nicht reden, da ist das aber auch schon lange üblich.

Gruß
Troggy
 
Virtualisierung = Hardware statt Software

Bei meinem Vertrauen in die Programmierfähigkeiten von Billy MS halte ich den Wechsel von Microsoft zu nach Intel & AMD in Fragen der Sicherheit für einen Meilenstein in der PC-Geschichte.

Wenn ich die Software incl. dem Betriebssytem (außer kleiner VMM-Steursoftware) komplett vom IRQ/Stack/Speicherzugriff physikalisch abkopple kann dies nur eine drastische Zunehme an Sicherheit bedeuten.
Manches hätte vielleicht auch 64 statt 32 Bit alleine bewirkt, aber in der heutigen 'feindlichen' Onlinewelt ist die CPU-Hardware doch viel verläßlicher als Bollwerk.

Wie die unterstützende Software und die praktischen Auswirkungen sein werden, dürfte vielleicht schon bis Mitte 2005 der 'Longhorn' Preview und CPU-Hardwaredetails uns zeigen.
Insgesamt aber der zweite wichtige Fortschrittnach 64 Bit für die User.
 
Hier mal die Seite von Intel mit Wortlaut was und wofür Vanderpool (mit dem AMD Bruder Pacifica) überhaupt.

Intel Vanderpool Technology
... Multiple servers can be combined into one system, running different applications and operating systems, providing advantages for IT tasks such as server consolidation, legacy migration and security.

Home users could create virtual “partitions” isolating multiple user environments such as dedicating resources to a PC game, productivity, and personal video recorder-type environments, as well as improve defenses against viruses or spy ware.

Vanderpool Technology (VT) is a set of hardware enhancements to Intel server and client platforms that can improve virtualization solutions.
... so eine richtige Antwort wofür Joe Sixpack und Lieschen Müller unbedingt so etwas braucht steht da aber auch nicht drin ... es muss ja auch so bedient und auch so genutzt werden ...

MFG Bokill
 
Original geschrieben von Bokill
... so eine richtige Antwort wofür Joe Sixpack und Lieschen Müller unbedingt so etwas braucht steht da aber auch nicht drin ... es muss ja auch so bedient und auch so genutzt werden ...

Weil sie es halt auch nicht brauchen. Schon gar nicht wird dadurch die Hardware besser ausgenutzt, was ja ursprünglich auch als Ziel angegeben wurde. Dazu müßten die einzelnen Partitionen schon gleichzeitig genutzt werden, was wohl kaum jemand macht.
Und was die Sicherheit angeht, da ist sauber konzeptionierte Software viel entscheidender. Aber man bekommt auch mit einem Hammer ein Loch in die Wand. Ob man dann darin auch einen Haken fest kriegt, an dem man das Bild aufhängen kann, ist schon wieder eine andere Sache. :]
 
Der neue 'Cell' hat auch Virtualization (http://www.computerbase.de/news/hardware/prozessoren/2005/februar/cell_zehnmal_cpus/ - Bild 3)

Entweder sind bei IBM/Sony, Intel/AMD und MS strohdumme oder eben geniale Leute.
Ich glaube, die Technik hat was positives für den Alltag.

Wobei der Cell, 64 Bit und in Summe 100 GigaByte/s I/O & XDR Gesamtkapazität natürlich manchen hier in der '32 Bit forever' Welt eh erschrecken wird.

Und die 4 GHz als Einstiegswert hat auch Sony bestätigt (http://www.sony.net/SonyInfo/News/Press/200502/05-0208AE/)


Für Word und ähnliches sind diese ganzen Zukunftsansätze übertrieben.
Nur, man will sowohl Signalverabeitung, als auch videorealistische Animationen in Zukunft dem User präsentieren. Zusätzlich wohl den ewigen Traum Spracherkennung und sogar Gestikerkennung anbringen.
Unter 32 Bit und alles unter dem gleichen OS eher daneben.


Vielleicht bringt uns die Virtualization gleichzeitig ein Echtzeit-OS , ein Signalprozessor-OS und konv. Win OS für Massenspeicher/-datenverwaltung auf der gleichen Hardware-Plattform ?
Der schaltungstechnische Mehraufwand ist sicherlich preiswerter in der Entwicklung und Fertigung als ewige Programmiertricks um Windows herum.
Vielleicht bekommen wir dann auch ein Linux-Bundle mit a) gewohntem Kernel und b) Echtzeit-Varianten auf der gleichen Plattform.

Heutige Universal OS sind für viele zeitkritische Aufgaben einfach zu träge.
Die Logik von Virtualization bei Signalprozessor-Aufgaben oder später Spracherkennung ist doch auch für einen Laien einsichtig, oder ?


Mein Tip:
Seht euch den 'Cell' an und denkt euch mehrere Kerne davon in einem kleinen kasten mit passiver Kühlung. Sowas ähnliches geht auch per x86-64 und Zusatzfeatures onchip. AMD hat ja schon beim Alchemy Au1200 eine Bonsai-Variante dazu implementiert.

Und:
2007 wird man über Win XP, 32 Bit und Single-Core nur noch müde lächeln - so wie wir heute über einen Duron 600.


Nach fast 30 Jahren Kenntnis der Computerentwicklung kann ich nur sagen, es geht im gewohnten Tempo jetzt bald weiter. So gewaltig waren eben schon immer die Umbrüche in dieser Branche - ein Stillstand eben nicht absehbar.
 
Zuletzt bearbeitet:
@rkinet

Virtualisierung = Hardware statt Software

Ich weis ja nicht wie du dir das vorstellst *kopfkratz ... Soll in einem partitionierten System auf magische Weise aus einer virtuellen CPU eine physikalische (=Hardware) raus wachsen...

Irgendwie *rofl*

Der neue 'Cell' hat auch Virtualization
*Gähn* Jede PPC CPU unterstützt Virtualisierung.. liegt halt am ISA.

Wenn ich den Computerbase Artikel lese wird mir schlecht: Die behaupten doch tatsächlich Cell hätte einen "vereinfachten" Power5 Kern.... Never! Cell hat was viel primitiveres -- etwas das noch nicht mal in die Nähe des Power4 kommt. Wenn Cell nur anähernd einen so effizienten Kern wie der Power5 hätte warum läuft dieser dann nicht auch schon bei 4GHz?

Vielleicht bringt uns die Virtualization gleichzeitig ein Echtzeit-OS
??? Der "Vorteil", den ein Echtzeit-OS durch die verwendunge eines Virtualisierugs-Layers hat ist, dass die Interrupt-Latenzen ansteigen. Welch ein Argument für Virtualisierung *great*

Die Logik von Virtualization bei Signalprozessor-Aufgaben oder später Spracherkennung ist doch auch für einen Laien einsichtig, oder ?
Erklär doch mal...

IMHO Cell ist eine nette Architektur für bestimmte Probleme, aber nicht das alleinig seelig machende! Zwischen Peak-Performance und real erzielbarer Performace gibt es schon noch Unterschiede. Ich frag mich z.B. was will ich mit so viel FP Power, wenn meine Anwendung Integer- und Branch-Lastig ist?
 
Afaik läuft der Kern vom Cell (meinen Informationen (aktuelle C't) nach ein Power4) auf 1GHz, nicht 4.


Aber einige Leute sollte vielleicht mal daran denken, dass man auf der Basis von Marketinginformationen rein garnix über irgendwelche Möglichkeiten von irgendwelchen Sachen sagen kann, für sowas braucht man technisches Hintergrundwissen.
Ohne das kommen nur wilde Marketingphantasieen zustande, nicht mehr als belanglose Spekulation und nicht besser als die Marketingabteilungen selbst.
 
Zurück
Oben Unten