Konstanzer Physiker erhöhen Speicherdichte von Festplatten

mtb][sledgehammer

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.375
Renomée
30
Standort
Alphaquadrant der Milchstraße, Erde (kleiner blaue
Wenn man die Entwicklung der Festplattenkapazität in der Vergangenheit betrachtet, so erkennt man schnell, dass diese eine enorm schnelle Entwicklung hinter sich hat. So lag die Festplattenkapazität eines 40 MHz 386 Rechners bei ca. 100 MB, der Arbeitsspeicher hatte eine Größe von etwa 1 MB pro Modul, der Prozessor hatte 275.000 Transistoren. Zum Vergleich die Daten heutiger Desktop Spitzenprodukte: 400 GB Festplatte (~ Faktor 4000), 1 GB Arbeitsspeicher pro Modul (~ Faktor 1000), 230 Mio. Transistoren im Prozessor (~ Faktor 800).

Die Speicherdichte in Festplatten hat also offensichtlich am rasantesten zugenommen, was auch bei dieser Technologie zur Folge hat, dass die Produkte langsam an die Grenzen der Physik stoßen. Denn mit zunehmender Speicherdichte werden natürlich die einzelnen Metallteilchen, welche die Datenbits speichern immer kleiner und liegen heute auch schon weit unter dem Bereich von einem µm. Durch die Verkleinerung der magnetischen Partikel sei eine Tendenz vorhanden, dass die Wärme dazu führe, dass die magnetische Polung der Partikel fluktuiert und damit ihren Informationsgehalt verliert, erklärte Professor Günter Schatz der Universität Konstanz in einem Bericht des <a href="http://www.dradio.de/dlf/" target="b">Deutschlandfunks</a>.

Den Konstanzer Physikern gelang es nun die "Steifung" dieser Partikel zu erhöhen, indem sie die magnetische Polung nun - anstatt wie bisher waagrecht - senkrecht zu den einzelnen Magnetscheiben verlaufen lassen. Um den dadurch entstehenden Nachteil einer energieintensiven Beschreibung des Datenträges zu vermeiden, wählen die Konstanzer Physiker letztendlich aber einen Mittelweg, bei dem die Partikel schräg positioniert werden.

Ergebnis dieser Anordnung ist eine um den Faktor 10 erhöhte maximale Speicherdichte. Dieser Vorteil lässt sich natürlich für noch höhere Kapazitäten nutzen, auf der anderen Seite sieht Professor Schatz die Möglichkeit deutlich kleinere Festplatten zu entwickeln, welche selbst in einer Armbanduhr Platz finden würden.
 
Was ist der Unterschied zu dem da? Ich seh' da nicht wirklich einen Unterschied...
 
10 fache Steigerung der Zuverlässigkeit wäre mir lieber ....
 
Nach dem ich die PMs zu den Seagate Platten gelesen habe, kann ich mir durchaus vorstellen, dass es die selbe Technologie ist (würde mich dann jedoch wundern, dass DLF das erst jetzt bringt). Ansonsten seht es einfach mal technologischen Hintergrund: dann wissen wir wenigstens wers erfunden hat (die Idee ist in Konstanz auch nicht neu, allerdings habe ich auf der Homepage der Uni Konstanz keine Berichte gefunden, die von einem Fortschritt in diesem Maße sprechen).

Dazu kann ich vielleicht noch schreiben, dass die Schrägstellung mithilfe von Nanobällchen erreicht wird, ein Detail, das ich weder in den alten PMs der Uni Konstanz noch in der von Seagate gefunden habe.

Zum Thema Zuverlässigkeit: Bei gleicher Kapazität sollte das Prinzip natürlich auch deutlich zuverlässiger sein, zumindest was die Magnetplatten angeht.
 
Naja, Seagate und Hitachi haben beide doch die 'absolut' senkrechte Technik verwendet, oder irre ich mich? Steht zumindest irgendwo hier im Forum;)
Die Konstanzer machen jetzt was 'halbgares', was in diesem Fall aber ideal zu sein scheint. Noch nicht verstehe ich allerdings, worin der Nachteil in energieintensiver Beschreibung liegt...
 
Das Beschreiben der absolut vertikalen Metallpartikel soll deutlich mehr Energie benötigen als bei horizontalen Partikeln (ergo die Platte wird heißer, der Akku schneller leer). Bei den schrägen Partikeln soll dieser Nachteil eben auch wegfallen.
 
Vielleicht Energie = Wärme?
Wobei hier natürlich interessant ist WIEVIEL Energie denn mehr verbraucht wird...
Wenn ich vielleicht den Schreib/Lesekopf wegen der erhöhten Energiezufuhr ändern muss gibt das unter Umständen schlechtere Zugriffszeiten, weil mehr bewegte Masse. Hier dürften schon Gewichte unterhalb des Gramm-Bereiches enorme Auswirkungen haben.

Außerdem steht damit auch noch im Raum, ob die Technologie der "senkrechten Technik" auch für 10k bzw. 15k UpM Platten einsetzbar ist...
 
mtb][sledgehammer schrieb:
Das Beschreiben der absolut vertikalen Metallpartikel soll deutlich mehr Energie benötigen als bei horizontalen Partikeln (ergo die Platte wird heißer, der Akku schneller leer).
Ah, das macht Sinn. Hitze- und Versorgungsnachteile... jop.

Nur wieso ist dann noch kein anderer auf die Idee gekommen, nen Zwischenzustand auszunutzen? Das Verfahren der vertikalen Ausrichtung ist doch seit 2002 in der Entwicklung, und erst jetzt soll das System halbwegs brauchbar (siehe megatrons Post) sein? Seltsam...
 
Hier dürften die von mtb][sledgehammer erwähnten Nanobällchen der Knackpunkt sein. Tatsache ist doch, das grad im Bereich Nanotechnologie aktuell recht umfangreiche Fortschritte zu verzeichnen sind.
Man kann also annehmen, das die Idee mit den Nanobällchen bis vor "kurzer Zeit" noch nicht einsetzbar war. Zumindest nicht insofern als das eine wirtschaftliche Nutzung möglich war...
 
mtb][sledgehammer schrieb:
aus diesem Posting

... Ansonsten seht es einfach mal technologischen Hintergrund: dann wissen wir wenigstens wers erfunden hat...

Ja, find ich gut daß du das noch einmal aufgegriffen hast, ansonsten hätte ich das gemacht ;-)
Wir könnten sowas ruhig öfter machen, es gibt zwar in technologischer Hinsicht nicht wirklich oft solche Sprünge, aber wenn, dann kann man sowas ruhig mal etwas breit treten. Es gibt hier sicherlich auch noch mehr Leute außer dir und mir, die das Thema interessiert.
 
Zurück
Oben Unten