AMD stellt Virtualisierungsplattform "Pacifica" vor

Patmaniac

Grand Admiral Special
Mitglied seit
21.05.2001
Beiträge
14.789
Renomée
266
AMD gab heute wie <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=all&id=1110449514">erwartet</a> auf dem AMD Reviewers Day in Austin, Texas, Einzelheiten zu seiner Virtualisierungstechnologie "Pacifica" bekannt. Mit "Pacifica" bringt AMD eine Lösung auf den Markt, die für 64 Bit-Virtualisierungstechnologien für Server, Desktop-PCs und Notebooks optimiert ist. "Pacifica" ermöglicht den Aufbau einer Computerplattform, auf der mehrere Betriebssysteme und Softwarepakete auf unabhängigen Partitionen arbeiten können. Dies erlaubt die Nutzung eines einzigen Computersystems als mehrere "virtuelle" Systeme.

<i>"Unsere neue Virtualisierungstechnologie, die wir heute auf Virtualisierungslösungen spezialisierten ISVs und Marktanalysten vorgestellt haben, bietet Anwendern künftig noch mehr Funktionen und besonders leistungsfähige auf einem Hypervisor basierende Virtualisierungslösungen,"</i> so Marty Seyer, Corporate Vice President und General Manager von AMDs Microprocessor Business Unit in der Computation Products Group des Unternehmens.

Bei "Pacifica" handelt es sich um eine Erweiterung der Direct Connect Architektur, die auf ein neues Modell sowie auf Funktionen innerhalb des Prozessors und des Speicher-Controllers zurückgreift und so eine verbesserte Virtualisierung ermöglicht. Gegenüber herkömmlichen Virtualisierungskonzepten, die ausschließlich auf Software basieren, vereinfacht "Pacifica" die Entwicklung von Virtualisierungslösungen und sorgt für eine erhöhte Sicherheit. Aufgrund der Kompatibilität zu bereits vorhandener Virtualisierungssoftware bleiben bisherige IT-Investitionen geschützt.

AMDs Absicht, der Computerbranche eine Technologie zum Aufbau von Virtualisierungslösungen an die Hand zu geben, soll durch strategische Allianzen mit Partnern wie Microsoft, VMware und XenSource untermauert werden.

Einzelheiten zu den Spezifikationen von "Pacifica" wird AMD im April 2005 bekannt geben. Prozessoren für Clients und Server, die nach dem "Pacifica"-Konzept weiterentwickelt wurden, wird AMD voraussichtlich in der ersten Jahreshälfte 2006 auf den Markt bringen. Kommende Single- und Dual-Core-AMD64-Prozessoren sollen ebenfalls um Funktionen aus dem "Pacifica"-Konzept erweitert werden, damit Computernutzer die Leistung von 64 Bit-Virtualisierungssoftware nutzen können.

<b>Links zum Thema:</b>
<a href="http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~96162,00.html" target="b">Pressemitteilung "AMD Unveils Virtualization Platform"</a>
<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1112195067" target="b">Enterprise Solutions Built on AMD64 Technology </a>
<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1106480480">Neue inoffizielle AMD Roadmap aufgetaucht</a>
<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1108496193">Virtualisierungstechnik Xen wird von AMD unterstützt</a>
<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1111173790">AMD: "IBMs Cell-Prozessor läuft in die Itanium-Falle"</a>

Thx@ neax für den Hinweis
 
ähm wofür braucht Otto normal Bürger das?

Mir fällt so spontan keine Anwendung ein.


lessie
 
Soll das sowas wie VMWare und VirtualPC sein oder steh ich aufm Schlauch was das Verstehen betrifft?
 
Hallo,

das ist im Prinzip sowas wie Vmware, nur das es hardwaregestützt abläuft. Man kann dann z. B. Windows und Linux gleichzeitig (!) laufen lassen, oer auf einem Server zwei völlig unabhängige Instanzen laufen lassen, wenn das eine gehackt wird, weiss keiner, dass dann noch eins existiert usw. Man hat also die Möglichkeit, aus einem Rechner zwei oder mehr zu machen.

Die verschiedenen Instanzen können dann beide (gleichzeitig?) auf ein und dieselbe Hardware zugreifen ...

giftnudel
 
tja und wozu brauch ich das?

Was gibt es da für eine Anwendung, oder muss die noch geschaffen werden?

ok ich kann evtl Linux laufen lassen und Windoof. Wie irre, nur kann ich Multitasking ausführen. Bin ich deta oder Data von Enterprise und kann beides gleichzeitig bedienen? :)

Habe ich dann zwei Tastaturen und zwei Mäuse.

Wie ihr seht mir fehlt die Vorstellung wofür?


lessie
 
Original geschrieben von lessie
tja und wozu brauch ich das?

Was gibt es da für eine Anwendung, oder muss die noch geschaffen werden?

ok ich kann evtl Linux laufen lassen und Windoof. Wie irre, nur kann ich Multitasking ausführen. Bin ich deta oder Data von Enterprise und kann beides gleichzeitig bedienen? :)

Habe ich dann zwei Tastaturen und zwei Mäuse.

Wie ihr seht mir fehlt die Vorstellung wofür?


lessie

Dem Home-User wird es erstmals nicht viel bringen, das ist wohl eher für kleine Server bekannt, wo man dann ein Linux und ein Microsoft-OS parallel betreiben kann z.B. für firmeninterne Applikationen und die Website nach draussen.

Für zuHause ist es relativ uninteressant, da sich die System die Ressourcen ja teilen und wer will schon ständig zwischen zwei "Welten" pendeln. Da haöte ich die Entwicklung von DualCore optimierten Software für den Homeuser für wichtiger und sinvoller..!
 
Hi,

Pacifica hat auch eine Veränderung in der CPU zur Folge. Um das Feature richtig nutzen zu können bedarf es einer kompatiblen Software - einer kompatiblen Virtualisierungs-Software.
Als kompatible Virtualisierungs-Software wurde in erster Linie die Linux-Lösung Xen erwähnt. Dazu scheint sich nun VMware und künftigen Versionen der Microsoft-Produkte Virtual PC und Virtual Server zu gesellen.

Greetz
neax :)
 
Wie immer gilt: Der Markt muss sich Bedürfnisse schaffen, wenn diese noch nicht vorhanden sind. ;D

Ich gehe davon aus, dass man für Otto Normalo auch noch eine Anwendung finden wird. Wenn man jetzt von sehr anspruchsvollen Usern absieht, so könnte man einen schnellen Dual-Core Rechner für eine ganze Familie verwenden. Während jemand auf dem Fernseher eine E-Mail verfasst, betrachtet jemand im Nebenraum ein Video. So ganz nebenbei spielt wieder jemand anderer ein Spiel, alles über die gleiche PC-Kiste, die sich dezent im Hintergrund hält. Ich weiß nicht mehr genau wo, aber Intel hat so etwas ähnliches auf dem IDF gezeigt (eine Skizze).

Und mal im Ernst: Solange man nicht volle Leistung braucht, reicht ein Bruchteil der Rechenleistung locker aus. Vor allem was Office, Internet und Multimedia Playback (Video, Audio) betrifft.
Bei Firmen kann man so die überdimensionierte Rechenleistung eines zukünftigen Büro-PCs auf mehrere Mitarbeiter aufteilen.
 
mmh, joaaoa könnte gehen :)

Also ein Rechner, richtig aufgemotzt, alles über W-lan und Quantenkryptographie, damit kein anderer es mitbekommt und schon rockt es?

Dann lassen wir uns mal überraschen :)

lessie
 
In den Büros könnte dann ein PC mehrere Arbeitsplätze bedienen :) fein fein
 
Original geschrieben von Starcraftfreak
Wie immer gilt: Der Markt muss sich Bedürfnisse schaffen, wenn diese noch nicht vorhanden sind. ;D

Ich gehe davon aus, dass man für Otto Normalo auch noch eine Anwendung finden wird. Wenn man jetzt von sehr anspruchsvollen Usern absieht, so könnte man einen schnellen Dual-Core Rechner für eine ganze Familie verwenden. Während jemand auf dem Fernseher eine E-Mail verfasst, betrachtet jemand im Nebenraum ein Video. So ganz nebenbei spielt wieder jemand anderer ein Spiel, alles über die gleiche PC-Kiste, die sich dezent im Hintergrund hält. Ich weiß nicht mehr genau wo, aber Intel hat so etwas ähnliches auf dem IDF gezeigt (eine Skizze).

Und mal im Ernst: Solange man nicht volle Leistung braucht, reicht ein Bruchteil der Rechenleistung locker aus. Vor allem was Office, Internet und Multimedia Playback (Video, Audio) betrifft.
Bei Firmen kann man so die überdimensionierte Rechenleistung eines zukünftigen Büro-PCs auf mehrere Mitarbeiter aufteilen.

Nur das das (fast) alles mit HT und Dual Cores auch möglich ist ohne die Software so tiefgreifend neu Programieren zu müssen.
Dem gegen über stehen sehr viele Nachteile... oder glaubst du das das Hin- und Herschalten zwischen ganzen Betriebsystemn reibungsloser funktioniert als wie auf einem PC ohne HT etc. zwischen zwei Tasks?!

Und wenn ein PC gehackt wird dürfte der Hacker ziemlich schnell mit bekommen was noch so auf dem Sys läuft. Und wenn der Server steht dann ist auch alles Tot, ein Hacker kann glaube ich nicht so leicht 2 PC's gleichzeitig Hacken, oder irre ich mich da :]

Also unsere User nutzen ein 3,2 Ghz PIV voll aus mit Excel Word und Co wohl gemerkt. Ich arbeite zZ ein einem PIII Laptop und die den sehen sagen das es eine Lame Krücke ist!
Theoretisch reicht ein PI 200Mhz für Excel aber in der Praxis meist nicht ;)
 
Die Software sieht ja nur einen Prozessor und hat keine Peilung, dass auf dem System weitere Virtuelle Prozessoren betrieben werden ... alle jeweils mit eigenen OS, oder Containern. Da wird ein Hacker auch nicht mehr sehen.

Und dass ein Rechner die vielen anderen Rechner im Büro ersetzen soll, kann ja nicht der Sinn sein. So wird eine Monsterrechner hingestellt, aber die vielen anderen Rechner können dann verschwinden? Wo ist da Wachstum und Mehrabsatz?

MFG Bokill
 
auf der mehrere ... Softwarepakete auf unabhängigen Partitionen arbeiten können.
Dies dürfte für Mainstream incl. Office der einzig relavante Anteil sein.

Eine Hardware gesteuerte Abschottung der Anwendungssoftware vom OS und anderen Applikationen.


Aber warten wir einfach mal die Detailpräsentation dazu ab.
 
oder aber ich mache endlich das was ich schon immer machen wollte, nur noch mit windows spielen und den rest mit linux machen ;>

aus faulheit mach ich das nicht, weil ich keine lust hab andauernd zu rebooten
 
Luckymurder schrieb:
aus diesem Posting

oder aber ich mache endlich das was ich schon immer machen wollte, nur noch mit windows spielen und den rest mit linux machen ;>

aus faulheit mach ich das nicht, weil ich keine lust hab andauernd zu rebooten
Schont auch die Hardware.

Jedenfalls kann lessie beruhigt werden. Es wird sich auch für den Heimanwender ein Nutzen finden, wie von dir angedeutet. Denn dieses Szenario sollte durchaus möglich sein und durch die Hardware-Umsetzung der Virtualisierung besser laufen, als via reiner Software-Virtualisierung.

Es ist ja auch immer die gleiche Leier:
2005 Wozu brauche ich Dual Cores?
2003 Wozu brauche ich 64 bit?
2002 Wozu brauche ich SSE2?
1999 Wozu brauche ich SSE?
1998 Wozu brauche ich 3DNow!
1997 Wozu brauche ich MMX?
1996 Wozu brauche ich 200MHz?
usw...
Das kann man sonstwieweit fortsetzen. Auch gleich noch auf der OS-Schiene, Grafikkarten-Schiene usw. :)
 
Zurück
Oben Unten