Seagate entwickelt HDDs mit Multi-Actuator-Technik

cruger

Senior Moderator
☆☆☆☆☆☆
Teammitglied
Mitglied seit
25.05.2002
Beiträge
29.374
Renomée
1.572
  • QMC Race
  • BOINC Pentathlon 2014
Quelle: Seagate

Video Demonstration

interessant. oder auch zurück in die vergangenheit.

steckt die entwicklung so sehr in der sackgasse, dass man auf einstmals verworfene konzepte zurückgreifen muss? *noahnung*

dazu ist anzumerken, dass es bereits anfang der 90iger jahre dual-actuator-modelle von conner (die später von seagate übernommen wurden) gab. dass diese technik nicht überlebt hat und bis heute nicht wiederbelebt wurde, hatte meines wissens vor allem etwas mit den erheblichen mehrkosten aufgrund der erhöhten komplexität solcher aufbauten zu tun.

conner-hdd.jpg

quelle: http://www.stcarchiv.de/tos1992/01/news

was kommt als nächstes? die rückkehr der 5,25 zoll festplatten? ;)
 
Helium-Festplatten sind ja auch nicht billig und werden trotzdem verkauft.
Heute werden diese Mehrkosten anscheinend gern wieder bezahlt.
Und mit der heutigen Technik lässt sich die komplexe Steuerung vielleicht auch viel besser in einen kleinen, preiswerten Controller gießen, wo früher gleich mehrere nötig waren für die verschiedenen Aufgaben.

5 1/4in glaub ich nicht, aber vielleicht deutlich höher als die heutigen Gehäuse, um mit der bestehenden Technik kostengünstig noch 2-3 weitere Platter unterzubringen. So wie das bei 2,5in ja bereits gemacht wurde.
 
Das einzige was teuer ist wenn man Helium + PMR haben möchte. SMR Festplatten sind deutlich billiger zu haben, mit all den Nachteilen.
 
Wie mir das bekannt vorkommt. Ich weiß aber nicht mehr, wovon ich davon gelesen hatte.
 
Bleibt halt die Frage, wofür man die Festplatte nutzen möchte. Wenn die Geschwindigkeit nicht relevant ist, braucht man den zweiten Kopfträger nicht. Wenn die Geschwindigkeit zählt, macht man halt eine solche Lösung.
Oder man nimmt einfach mehrere Festplatten, die ebenfalls parallel lesen und schreiben können. Das nennt sich dann RAID und ist auch nicht neu. Wirklich gut mit allen Vorteilen ist aber nur ein entsprechender Kontroller. Den gibt es aber auch nicht ganz umsonst.
Ergänzen kann man das mit Cache gegen Geld. Ist aber auch nichts neues.

Wer sowas tatsächlich benötigt, kauft sowas auch.

Vielleicht gab es bei Seagate einen Ideenwettbewerb und ein älterer Mitarbeiter hat sich an die damals entwickelte Technik erinnert.
 
Man könnte zumindest gleichzeitig lesen und schreiben, was ja bei der Zugriffszeit einer HDD schon ziemlich ins Gewicht fällt.
 
Bei dem Demonstrationsvideo sind aber quasi nur die Etagen getrennt, kein 2 Aktuator mit Lese/Schreibköpfen. Warum teilt man nicht die Spuren mit 2 Armen auf? Dann wäre der Full-Stroke deutlich kürzer. z.B. Spur 0-31999 und 32000-63999?

Größtes Problem bei 2 Armen mit getrennten Schreib/Leseköpfen dürfte wohl die Gefahr sein, dass Daten die der 1. Kopf liest gerade vom 2. neu geschrieben werden. Daher fände ich ein horizontale Aufteilung deutlich sinnvoller. Das wären dann quasi einfach nur 2 Platten in einem Gehäuse.

Das würde nur an der Geschwindigkeit etwas ändern, aber nicht an der Kapazität.
 
Bei dem Demonstrationsvideo sind aber quasi nur die Etagen getrennt, kein 2 Aktuator mit Lese/Schreibköpfen.
es sind letztlich 2 kämme mit unabhängig voneinander arbeitenden s/l-köpfen. damit hast du zwei unabhängige verarbeitungsprozesse, da pro kamm immer nur ein kopf aktiv ist. dann hat man halt zwei.

aber das alte conner-konzept war natürlich anders. da hatte man zwei vollständige kämme über alle platter.
 
Ja, ich denke die Entwicklung steckt in der Sackgasse. Letztlich geht es darum mehr Speicherplatz auf einer HDD zu schaffen und die (Herstellungs-)Kosten niedrig zu halten

Richtige Innovationen sind bei diesem Thema wohl begrenzt. Helium-HDDs sind für mich ein Graus, da bin ich mir zu unsicher in puncto Haltbarkeit. Und besonders große HDDs möchte ich über etliche Jahre als relativ sichere Datenlager haben.

Im Alltag ist die schnellste HDD machtlos gegen eine SSD, die Rolle die für mich früher die HDD-Speed gespielt hat ist deshalb auch ohne große Bedeutung.
 
ich möchte lieber weniger als mehr mechanische dinge in einer HDD haben ;) denn ich hab immer pech mit HDDs ^^
 
Bei dem Demonstrationsvideo sind aber quasi nur die Etagen getrennt, kein 2 Aktuator mit Lese/Schreibköpfen. Warum teilt man nicht die Spuren mit 2 Armen auf? Dann wäre der Full-Stroke deutlich kürzer. z.B. Spur 0-31999 und 32000-63999?

Größtes Problem bei 2 Armen mit getrennten Schreib/Leseköpfen dürfte wohl die Gefahr sein, dass Daten die der 1. Kopf liest gerade vom 2. neu geschrieben werden. Daher fände ich ein horizontale Aufteilung deutlich sinnvoller. Das wären dann quasi einfach nur 2 Platten in einem Gehäuse.

Das würde nur an der Geschwindigkeit etwas ändern, aber nicht an der Kapazität.


Nicht unbedingt, der noch die al CCC kennt die konnte in beiden Richtungen aufgenommen werden. Ohne das sich die Magnetfelder gestört haben. Es sei den man hat das Band öfter benutzt das gab es Durchkopier Effekte.

Um ins Extreme zu gehen vgl. mit HDD einem DAT-Recorder, mittels Schrägsspurverfahren auf das Medium aufgezeichnet hat, nun die Geschichte ein Kollege der diese Geräte repariert auf einem Tape sogar 2 Aufnahmen drauf waren von Recorder A und Recorder B, was theoretisch nicht geht. Die Toleranzen sind gering. Jedoch war der eine Recorder so verstellt das wirklich 2 Tonspuren von unterschiedlichen vorhanden waren und sich Gegenseitig nicht gestört haben.

So hatte man ein 60 Minuten Band mit 120 Minuten bespielen können, erster Durchgang Recorder A, zweiter Durchgang Recorder B. Dann Tape in Recorder A abspielen lassen, zurück spulen und dann in Recorder B einlegen.

Damit hat man den Beweis das dies möglich ist, und auch bei einer Festplatte !
 
Zuletzt bearbeitet:
Um ins Extreme zu gehen vgl. mit HDD einem DAT-Recorder, mittels Schrägsspurverfahren auf das Medium aufgezeichnet hat, nun die Geschichte ein Kollege der diese Geräte repariert auf einem Tape sogar 2 Aufnahmen drauf waren von Recorder A und Recorder B, was theoretisch nicht geht. Die Toleranzen sind gering. Jedoch war der eine Recorder so verstellt das wirklich 2 Tonspuren von unterschiedlichen vorhanden waren und sich Gegenseitig nicht gestört haben.

So hatte man ein 60 Minuten Band mit 120 Minuten bespielen können, erster Durchgang Recorder A, zweiter Durchgang Recorder B. Dann Tape in Recorder A abspielen lassen, zurück spulen und dann in Recorder B einlegen.

Damit hat man den Beweis das dies möglich ist, und auch bei einer Festplatte !
Bei einer Festplatte mit ähnlich riesigen Abständen der Spuren wie die ollen Bänder vielleicht.
Aber da sich die Spuren ja inzwischen sogar schon überlappen, kann man das bei Festplatten definitiv ausschließen.
 
Letztlich geht es darum mehr Speicherplatz auf einer HDD zu schaffen und die (Herstellungs-)Kosten niedrig zu halten

Richtige Innovationen sind bei diesem Thema wohl begrenzt.
Die sind wohl eher bei NAND begrenzt, da hat man nun die 3. Dimension erschlossen und kann nichts neues mehr bringen, denn es gibt da nur 3 Dinge die man machen kann, die sich aber gegenseitig behindern:
1.) Shrinks, also die Größe und Abstände der Zellen wieder reduzieren
2.) Mehr Layer, aber je mehr man bei den Shrinks zuschlägt umso schwerer wird auch auch noch mehr Layer jeweils korrekt übereinander zu fertigen
3.) Mehr Bit pro Zelle, aber auch hier stehen Shrinks im Wege und der Gewinn wird immer kleiner, je mehr man schon hat

Helium-HDDs sind für mich ein Graus, da bin ich mir zu unsicher in puncto Haltbarkeit.
So lange gibt es die doch noch nicht, als dass man Erfahrungen aud Kundenhand haben könne. Außerdem sind HDDs sowieso nur auf eine Nutzungsdauer von 5 Jahren ausgelegt, wie Samsung früher auch immer recht offen in die Datenblätter geschrieben hat, so wie z.B. hier:
Bei aktuellen HDDs steht das nur noch sehr selten so offen im Datenblatt, aber indirekt findet man es auch immer noch, so steht bei der ST1000VX005 im Product Manual auch noch
Aus 50.000 insgesamt und 10.000 pro Jahr ergibt sich dann aber doch wieder der Hinweis auf die geplante Nutzungsdauer von 5 Jahren. Obendrein sind sie auch nicht endlos lagerbar, da sie auch altern wenn sie nicht benutzt werden. Dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für die meisten Modelle wie hier für die Megascale:

Und besonders große HDDs möchte ich über etliche Jahre als relativ sichere Datenlager haben.
Wie jede HW kann auch jede HDD oder auch jede SSD jederzeit ausfallen, vor Datenverlust schützen nur Backups!
 
Ja, ich denke die Entwicklung steckt in der Sackgasse.
irgendwie schon. und der ausweg verzögert sich weiter.

alles, was in den letzten jahren so aus dem hut gezaubert wurde, war im prinzip der verzögerung von hamr geschuldet (und bit-patterned-media kommt offenbar auch nicht voran). also helium, smr, mehr platter, im prinzip auch ein wenig die umstellung auf 4k-sektoren. und mit der höheren platter-anzahl nun anscheinend auch die notwendigkeit für einen dual-actuator-versuch.

das thema rückkehr zu 5,25 zoll war eher scherzhaft gemeint, aber wer weiß. ;)

heat assisted magnetic recording hat seagate afair erstmals 2002 ins gespräch gebracht. über die jahre danach wurde immer wieder eine markteinführung etwa 2010 in aussicht gestellt. seit dem immer wieder verzögerungen, verzögerungen, verzögerungen. aber jetzt, jetzt wirklich ... 2018, 2019 ... mal abwarten.

dass wd jetzt mamr aus dem hut gezaubert hat ... da warte ich auch erstmal auf serienreife produkte. denn seit vorstellung des konzeptes sind nun auch bereits 10 jahre vergangen. aber mamr scheint momentan tatsächlich näher zu sein als hamr.

lustig ist, dass toshibas rekordmodell mit 14tb angeblich mit 9-plattern und helium-füllung wieder auf pmr setzt, wo in der größenordnung mittlerweile eigentlich smr zum einsatz kommt.
 
anscheinend auch die notwendigkeit für einen dual-actuator-versuch.
Dieses Dual Actuator ist weder notwendig, noch erhöht es die Kapazität.

das thema rückkehr zu 5,25 zoll war eher scherzhaft gemeint, aber wer weiß. ;)
Das Thema 5.25" kannst Du vergessen, die Vibrationen dürfte da zu so hohen Amplituden führen, dass dies mit den heutigen Datendichten nicht mehr geht und daher wird auch die Bauhöhe nicht erhöht, dann auch dann erzeugen die Schwingungen in der Mitte der Achse deutlich größere Ausschläge und dies werden über den Platter noch mal entsprechend gehebelt.
lustig ist, dass toshibas rekordmodell mit 14tb angeblich mit 9-plattern und helium-füllung wieder auf pmr setzt, wo in der größenordnung mittlerweile eigentlich smr zum einsatz kommt.
Dies zeigt nur, dass es da noch Fortschritte gibt was die Steigerung der Datendichte angeht, muss man doch immerhin 1,556TB pro Platter erreichen um die 14TB zu realisieren, während bei den aktuellen 12TB mit 8 Platter "nur" 1,5TB nötig sind. Seagate schafft mit SMR sogar schon 2TB pro Platter, könnte also von daher mit der bestehenden Technik sehr wohl eine 16TB mit SMR bringen, aber scheinbar ist der Markt für SMR HDDs einfach zu klein.
 
Zuletzt bearbeitet:
Bei einer Festplatte mit ähnlich riesigen Abständen der Spuren wie die ollen Bänder vielleicht.
Aber da sich die Spuren ja inzwischen sogar schon überlappen, kann man das bei Festplatten definitiv ausschließen.

Jein, es sollte auch ein Verfahren geben wo unterschiedliche Magnetfehler in einem Laufwerk möglich sein sollten. Warum sollte so eine Technik nur bei optischen Laufwerken möglich sein, womit man mit unterschiedlichen Wellenlängen arbeitet um in 4 oder mehr Layer durchzukommen. Wenn die HDD Hersteller heute noch nicht soweit sind, haben wir aber Technisch einen erheblichen Rückschritt hinter uns gemacht.
 
Licht lässt sich fokussieren, ein Magnetfeld kann man nur ein- oder ausschalten. Wie soll man da durch ein Feld hindurch noch in der Tiefe ein weiteres Feld unterbringen?
 
Licht lässt sich fokussieren, ein Magnetfeld kann man nur ein- oder ausschalten. Wie soll man da durch ein Feld hindurch noch in der Tiefe ein weiteres Feld unterbringen?

Na mit einem Magnetlas0r.
 
Klingt interessant, aber da wird doch eigentlich "nur" die Speicherdichte deutlich erhöht, weil die gegenseitige Beeinflussung der Magnetfelder durch die nach außen hin neutrale Magnetisierung kaum noch vorhanden ist. Mit mehreren Lagen hat das nix zu tun.
 
Mit einem stärkeren Magnetfeld könnte ich jedoch in tiefere Schichten dringen. Eine obere Schicht wird dann hinterher mit einem schwächeren Magnetfeld anders magnetisiert. Sowas könnte ich mir vorstellen. Dazu wäre dann aber ein Schreibenn zwei nacheinanderfolgenden Schritten notwendig und sobald in die tiefergelegene Schicht geschrieben werden soll, muss die dichter gelegene Schicht hinterher neu geschrieben werden.
Das bringt Kapazität und gleichzeitig eine Verlangsamung des Schreibvorgangs.
Die Verlangsamung könnte man jedoch mit einem Festplattenverbund im RAID wieder ausgleichen. Der Kapazitätsgewinn würde bleiben.
Naja, soweit die spontane Theorie ... ;-)
 
Das Problem ist aber, dass man die nötigen Stärken der Magnetfelder zum Schreiben schon gar nicht mehr aufbringen kann, da die Köpfe schon so klein sind und gar nicht so starke Magnetfelder erzeugen können. Man ist deswegen ja schon vor Jahren im Teilkontaktbetrieb übergegangen um die Abstände zu verringern und bei SMR macht man es eben so, dass man die Spur beschreibt und dann die Hälfte der Spur wieder überschreibt, einfach weil man so schmale Spuren gar nicht beschreiben kann wie man sie noch auslesen könnte. Daher ja auch HAMR, denn durch bei Hitze lässt sich die Magnetisierung eben einfacher ändern, man braucht als kein so starkes Magnetfeld und durch den Laser lässt sich diese Hitze auf einer kleinen Fläche erzeugen, man kann dann das Megnetfeld auf einen größeren Bereich einwirken lassen, was nötig ist da man die Schreibköpfe kaum noch weiter verkleinert bekommt und magnetisiert dann doch nur den erhitzten Bereich wirklich um.

Das Auslesen wäre aber bei Daten die übereinander in der Magnetschicht liegen, auch ein Problem! Ähnlich wie bei MLC NAND müsste man dann mehrere Magnetisierungssstärken unterscheiden können, da die einzelnen Feldstärken sich überlagern würden, man kann ja nicht die Magnetisierung der Oberfläche getrennt von der darunter auslesen, sondern die Köpfe können beim Lesen nur die gesamte Feldstärke erfassen. Selbst bei heute nur zwei möglichen Werten ist es da schon aufwendig genug diese zu unterscheiden.

Die Idee dürfte also keine Chance haben, trotzdem aber frohe Weihnachten!
 
@Holt, Neodym-Magnet sollte bekannt sein.

Festplatten können damit gelöscht werden bzw. zerstört werden, habe schon selbst durchgeführt.

Ich denke ich brauche dir nicht zu sagen wie stark so ein Magnet ist, selbst in Schreib/Lesekopfgröße einer HDD. ;D
 
Zurück
Oben Unten