Hitachi: 2,5-fache HDD-Datendichte mit HAMR

G

Gast29012019_2

Guest
hitachi.jpg

Eine Kombination aus Laser und PMR Kopf, soll Datendichten von bis zu einem Terabit pro Quadratzoll ermöglichen.

Hitachi selbst schreibt nur das der Laser die Oberfläche in einem Durchmesser von 20nm erhitzt, und dadurch das Magnetfeld abgeschwächt wird. Mehr Informationen gibts es bisher nicht dazu.

Meine Theorie dazu, durch das abschwächen des Magnetfeldes können die Köpfe näher an die Oberfläche gebracht werden, was die zu Abtastende Oberfläche erhöht und damit dann auch eine höhere Datendichte erzielt werden kann, was bisher nicht möglich ist. Es gibt Magnete die bei Hitze ihre Anziehungskraft verlieren, z.b Neodym Magneten bei einer Temp. von mehr als 80 Grad, sofern ich das dem Wik entnehmen konnte.

Allerdings ist die PMR-Technologie noch nicht am Ende, und so Toshiba mit 528,5 GBit/Quadratzoll derzeit die Spitze hält.
 
Zuletzt bearbeitet:
Ist mir derzeit einfach noch zu theoretisch, ich würde sowas mal gern in der Praxis sehen ;)
 
Dann müßten sie über den Preis punkten, weil SSD da vielleicht schon etwas günstiger ist als derzeit
 
Ist mir derzeit einfach noch zu theoretisch, ich würde sowas mal gern in der Praxis sehen ;)
seagate und andere basteln an heat bzw. thermal assisted recording schon seit den 90igern rum. auf ein paar jahre mehr oder weniger kommts da auch nicht mehr an. mit konventionellen techniken wird man mit sicherheit noch an die 1tbit/in² und ein bißchen weiter kommen.
 
Aber HDDs hatten vor SSD keine Konkurrenz, da müßte man jetzt die Entwicklung vorrantreiben.
 
(...)mit konventionellen techniken wird man mit sicherheit noch an die 1tbit/in² und ein bißchen weiter(...).
Naja, ich denke das wir mit der konventionellen Technik bereits das Limit erreicht, wenn nicht sogar überschritten haben. Bei den 1 TB+ Platten gehören (stetig steigende) reallocated Sectors ja schon fast zur Tagesordnung. *suspect*

Aber diese Meinung vertrete ich ja nicht erst seit Heute, die "Diskussion" hatten wir Beide ja schonmal. :P

In Sachen HAMR: Ohne es in den Händen zu halten weiß ich schon jetzt: Nicht mit mir. Wenn man es nicht auf die Reihe bekommt herkömmliche Plattern ohne Ausschuss herzustellen, wie wollen sie dann den überkomplexen Vorgang, der sich bei jedem Zugriff natürlich präzise reproduzieren lassen muß, in den Griff bekommen?

Nene, der Freizeitkritiker SD ist bisher nicht überzeugt.
 
Naja, neue Technik kann schon Schwächen haben, aber letztendlich entwickelt sich ja immer was weiter, warum sollte sowas also nicht funktionieren? Ist vielleicht nur ne Preissache
 
Naja, ich denke das wir mit der konventionellen Technik bereits das Limit erreicht, wenn nicht sogar überschritten haben. Bei den 1 TB+ Platten gehören (stetig steigende) reallocated Sectors ja schon fast zur Tagesordnung. *suspect*

So sieht es nämlich aus! Wie ich das aus dem Bekanntenkreis sagen kann, ist seit der 500GB/Platter-Veröffentlichung der Anteil an defekten sprunghaft angestiegen. Ich weiß von 6 Platten, von denen jetzt nur noch 2 funktionieren. Bin froh, dass ich mir damals noch 3 mal die TB WD Green mit 333GB/Platter geholt habe und keine von denen Probleme gemacht hat.

Ist ja auch klar, wenn man sich die Größenordnungen vor Augen führt, also Größe/Genauigkeit zu Bahngeschwindigkeit... Es ist schon unglaublich, wie gut das bis jetzt geklappt hat.
 
bei den großen platten ist es von vorteil wenn man einen händler zur hand hat, der einen direktaustausch vornimmt. eine meiner 3 1TB platten hatte auch schnell steigende 05er SMART werte. bei einem solchen verhalten kann bin ich froh das atelco keine zicken macht.
 

Ähnliche Themen

Zurück
Oben Unten