Arbeitsweise von Festplatten-Köpfen

SPINA

Grand Admiral Special
Mitglied seit
07.12.2003
Beiträge
18.122
Renomée
985
Eine Frage hätte ich jetzt noch einmal. Warum sind den Festplatten, welche ich bisher geöffnet habe, die verschiedenen Arme für die Schreib- und Leseköpfe jeweils aneinander gekoppelt? Warum bewegen sich diese nicht bei jedem Platter und jeder Platterseite unabhängig voneinander? Das würde zwar eine aufwendige Stellmechanik erfordern, aber ließe sich nicht so der Durchsatz erheblich steigern? Sozusagen zwei Platter im DualChannel Modus. *buck*

hdd_in.jpg
 
Lol das wäre mal nicht schlecht :)

Ich frag mich auch wie die Daten geschrieben werden, parallel oder jeweils über einen Kopf?
 
Ich halte es mech. für viel zu Aufwändig, jedem Kopf einzelnd zu bewegen. 4-6 positionier-Motoren, anstatt einer!

Ausserdem ist die gesamte logik einer Festplatte auf Seriellen-Betrieb ausgelegt.
Die Daten würden dann so doch parallel antreffen und müssten erstmal sortiert werden. (Zeit- und Speicherplatzverlust um die Daten zuordnen und sortieren zu können)
Man müsste die HD also neu erfinden.

Einzig den Lese und Schreibvorgang voneinander zu trennen (also 2 Kämme) würde die Performance m.E. spürbar beschleunigen, wenn dann noch Duplex möglich wäre.

Früher gab es auch mal die Festkopf-Festplatten.
Die haben sich aber scheinbar nicht durchgesetzt, ebensowenig wie das 72x CD-Rom Laufwerk was AFAIK mit mehreren (2 oder 4?) Lasern (oder Leseeinrichtungen) gearbeitet hat.
Es brachte wohl nicht die Performance die man erwartet hat.
 
Bei Festplatten ist immer nur ein Kopf aktiv. Warum das nicht anders gemacht wird, wird wohl daran liegen, dass neben der aufwändigeren Mechanik auch die zusätzliche Hitzeentwicklung ein Problem darstellen dürfte.

Die haben sich aber scheinbar nicht durchgesetzt, ebensowenig wie das 72x CD-Rom Laufwerk was AFAIK mit mehreren (2 oder 4?) Lasern (oder Leseeinrichtungen) gearbeitet hat.
Es brachte wohl nicht die Performance die man erwartet hat.
Es brachte schon mehr Leistung und war auch durch die geringere Drehzahl um einiges leiser, aber im Vergleich zu den traditionell arbeitenden Laufwerken war es relativ unausgereift (die Fehlerkorrktur war sehr schlecht) und die Technik kam viel zu spät auf den Markt (da gabs bereits mindestens 32x Laufwerke).
 
Wieso sollte es aufwändiger sein? Die Köpfe sind doch eh miteinander verbunden (die Arme)... Und warum sollte es wärmer werden wenn statt 1 kopf 4 gleichzeitig schreiben?
 
Die Spuren innerhalb eines Zylinders können nie exakt untereinander liegen, sodass beim Umschalten zwischen den Spuren eines Zylinders die Position des S-/L-Kopfes immer etwas angepasst werden muss. Würden alle Köpfe gleichzeitig arbeiten, müssten sie sich voneinander unabhängig bewegen können. Das bedeutet eine aufwändigere Mechanik (jeder Kopf bräuchte einen eigenen Aktuator) und das wiederum bedeutet eine höhere Hitzeentwicklung.
 
Warum können die Spuren nicht direkt untereinander liegen? Die kommen doch erst beim Formatieren drauf?
 
Beim Formatieren? Welches Formatieren meinst du? Ich habe im übrigen nicht geschrieben, dass sie nicht direkt untereinander liegen, ich habe geschrieben, dass sie nicht "exakt" direkt untereinander liegen.
 
Die Spuren und Sektoren werden erst beim Formatieren geschrieben. Meinen tu ich das Lowlevel Formatieren. Die Spuren sind doch nicht von Anfang an drauf.
 
Was soll das denn bringen, alle Köpfe gleichzeitig zu benutzen, aber mechanisch aneinander zu koppeln?

Hört sich fast wie ein kleines internes Raid1 oder 0 an ;D (wäre eigentlich echt mal eine Idee ;D )
 
ich dachte das wäre gängige Praxis? Geht doch viel schneller die Daten über 4 Köpfe zu lesen als über einen. Und jetzt sag nicht wieder das dauert zu lange die Daten aufzuteilen. Dann wäre ja ein Raid genauso sinnlos.
 
ich dachte das wäre gängige Praxis? Geht doch viel schneller die Daten über 4 Köpfe zu lesen als über einen. Und jetzt sag nicht wieder das dauert zu lange die Daten aufzuteilen. Dann wäre ja ein Raid genauso sinnlos.


Ergibt nicht die Summer der Pattern die Gesamtkapazität der Festplatte?

Du hast aber Recht, man könnte alle Leseköpfe als Raid0 miteinander kombinieren... wer hat einen Link der Bestätigt, dass immer nur ein kopf Aktiv ist?


Sind Festplatten einer Baureihe aber unterschiedlicher Grösse nicht gleich schnell? Das spräche zumindest dafür, dass die Köpfe nicht gleichzeitig lesen.
Lediglich die Datendichte und Umdrehungszahl erhöht doch den sequentuellen Datendurchlauf
 
Zuletzt bearbeitet:
Ergibt nicht die Summer der Pattern die Gesamtkapazität der Festplatte?

Das macht ja nix. Ob die Daten nun bsp. 1x4 cm auf der Platter liegen oder in 4x1 cm macht ja größentechnisch keinen Unterschied. Ich hab mal irgendwo gelesen das die Platten eh ne eigene Art haben die Daten zu schreiben/verwalten. So kommt es auch daß manche Programme wie Everest wasn von 200 Heads schreiben obwohl die Platte nur 4 hat.


Sind Festplatten einer Baureihe aber unterschiedlicher Grösse nicht gleich schnell? Das spräche zumindest dafür, dass die Köpfe nicht gleichzeitig lesen.
Warum?
 

Weil der Größenunterschied AFAIK nur durch die Anzahl der Pattern gesteuert wird.
Mehr Pattern bei gleicher Datendichte müsste sofort eine höhere Geschwindigkeit mit sich bringen, bzw. der unterschied zwischen 2 und 4 Pattern dann ja bei 100% liegen *noahnung*
 
Ne nich ganz. Gibt 2 Platter mit 160 und 200 Gb.
 
Daniel_23 schrieb:
Die Spuren und Sektoren werden erst beim Formatieren geschrieben. Meinen tu ich das Lowlevel Formatieren. Die Spuren sind doch nicht von Anfang an drauf.
Die Festplatte selbst kann diese Spuren und Servoinformationen nicht mehr selbst schreiben. Das macht der Festplattenhersteller bei der Laufwerksmontage mit einem separaten Gerät. Oder führst du bei deinen neu gekauften Platten immer als erstes eine LLF aus? Überleg dir mal den Aufwand der dazu notwendig ist die Spuren jedes einzelnen Zylinders exakt übereinander zu platzieren. Da ist es wesentlich einfacher, zeit- und kostensparender die Spuren einzeln anzusteuern.

Devastators schrieb:
Sind Festplatten einer Baureihe aber unterschiedlicher Grösse nicht gleich schnell? Das spräche zumindest dafür, dass die Köpfe nicht gleichzeitig lesen.
Lediglich die Datendichte und Umdrehungszahl erhöht doch den sequentuellen Datendurchlauf
Exakt so ist es. Mal abgesehen davon, dass es innerhalb einer Serie durchaus leichte Unterschiede bei der Datendichte geben kann. Der Punkt, der hier wichtig ist, ist die physische Kopfanzahl.

Daniel_23 schrieb:
Weil in den größeren Platten derselben Serie mehr Magnetscheiben und Köpfe verbaut sind. Würde es stimmen, dass alle Köpfe gleichzeitig aktiv sind, müsste sich die sequenzielle Transferrate jeweils mit der Anzahl der verbauten Köpfe multiplizieren. Also wenn bei einer Platte mit einem Kopf die maximale Transferrate bei 60 MB/s liegt, müsste bei der nächst größeren Platte der Serie mit zwei Köpfen die maximale Transferrate bei 120 MB/s liegen. Also eine Art internes RAID-0. Dass das nicht so ist, kannst du den Ergebnissen der Low-Level-Benchmarks entnehmen.

Daniel_23 schrieb:
Ne nich ganz. Gibt 2 Platter mit 160 und 200 Gb.
Es wäre nett wenn du mehr dazu schreiben würdest, was du gerade meinst. Du schmeißt immer nur Brocken hin und wir dürfen dann raten.

Innerhalb einer Serie gibt es mittlerweile Unterschiede bei der Datendichte zwischen den verschiedenen Modellen (das war nicht immer so). Das ist richtig. Das ändert aber nichts daran, dass bei Modellen, die aus derselben Serie stammen und bei denen die Anzahl der Köpfe und Magnetscheiben unterschiedlich ist, ansonsten sich die sequenzielle Transferrate stark unterschieden müsste. Bedingt durch die unterschiedliche Datendichte gibt es Unterschiede, die aber nicht so groß sind, dass man davon ausgehen muss, dass alle Köpfe zur gleichen Zeit aktiv sind.

Angenommen du hast Recht. Warum geben die Hersteller dann eine head-switch-time an, wenn doch alle Köpfe zur gleichen Zeit aktiv sind?
 
Zuletzt bearbeitet:
Weiß ich nicht. War ja nur ne Vermutung. Macht doch aucb mehr sinn auf allen 4 Köpfen gleichzeitig zu schreiben. Ältere Festplatten konnte man auch noch selber Low-Level formatieren. Also gings da. Heute gehts ja nicht mehr (so einfach?)

Überleg dir mal den Aufwand der dazu notwendig ist die Spuren jedes einzelnen Zylinders exakt übereinander zu platzieren. Da ist es wesentlich einfacher, zeit- und kostensparender die Spuren einzeln anzusteuern.

Ja so wie Früher? Das man das mit den Köpfen machen kann? Wozu ne extra Maschine?
Ich versteh die Funktionsweise nicht so genau. Ich dachte beim LLF schreibt man die grobe Geometrie vor, wie bei der Schallplatte die Rillen. Beim normalen Formatieren dann die Sektoren/Zylinder? Da der erste Schritt ja auch nur Magnetisch ist, warum muss das dann ne extra Maschine Machen?
 
Ich glaube kaum, dass du jemals bei einer Festplatte eine echte LLF, im Sinne der Einteilung der Spuren in Sektoren, durchgeführt hast. Es gibt zwar Programme und auch Optionen in Tools, die angeblich eine LLF durchführen. Das was die Programme da machen ist aber nichts anderes als das Füllen jedes einzelnen Sektors mit logischen Nullen (der Datenbereich wird komplett überschrieben). Neu eingeteilt wird da gar nichts.

Ältere Festplatten konnte man tatsächlich selbst Low-Level-formatieren (es war sogar notwendig um sie einzurichten), aber das ist schon über 10 Jahre (und mehr) her. Moderne Festplatte, bei denen das durch den Anwender überhaupt nicht mehr möglich ist, funktionieren etwas anders als die Festplatten damals. Damals wurde für die Kopfpositionierung ein Schrittmotor verwendet. Heute kommt dazu ein Linearmotor zum Einsatz der sich an Servoinformationen auf dem Datenträger orientiert, die fest (nicht magnetisch) aufgebracht sind. Damals beinhalteten alle Spuren der Festplatte die exakt gleiche Anzahl Sektoren. Heutzutage sind Festplatten intern in mehrere Zonen unterteilt. Die Sektoranzahl pro Spur ist in jeder Zone anders.

Das was du im BIOS siehst ist lediglich die logische Geometrie der Festplatte. Die hat schon lange nichts mehr mit dem tatsächlichen Aufbau (physische Geometrie) der Festplatte zu tun. Wie eine Festplatte intern tatsächlich aufgebaut ist weiß das System nicht. Die Festplattenlogik gaukelt dem BIOS bzw. dem System im Grunde ein virtuelles Laufwerk vor. Bei jedem Zugriff wird von der Festplattenlogik zwischen logischer und physischer Geometrie übersetzt.

Macht doch aucb mehr sinn auf allen 4 Köpfen gleichzeitig zu schreiben.
Für wen? Für dich? Wie ich bereits erläutert habe dürfte die exakte Ausrichtung aller Spuren jedes Zylinders problematisch sein. Du weißt was man unter Zylinder versteht?

Da der erste Schritt ja auch nur Magnetisch ist, warum muss das dann ne extra Maschine Machen?
Der erste Schritt ist eben nicht nur magnetisch (siehe Servoinformationen).

Das normale Formatieren legt lediglich das Dateisystem des Betriebssystems an. Auf Hardware-Ebene wird da gar nichts gemacht. Zylinder und Sektor verwechselst du anscheinend mit Cluster. Cluster sind wieder was ganz anderes. Cluster werden tatsächlich beim normalen Formatieren angelegt. Die haben aber weder was mit der physischen noch mit der logischen Geometrie zu tun.

@Mods
Bitte diese Diskussion in einen eigenen Thread auslagern. Mit der FAQ hier hat das nun gar nichts zu tun.
 
@Mods
Bitte diese Diskussion in einen eigenen Thread auslagern. Mit der FAQ hier hat das nun gar nichts zu tun.
erledigt ....


afaik gab es z.b. um 1990 herum einige hersteller, die kommerzielle produkte mit zwei actuatoren entwickelt hatten. das war afaik vornehmlich connor, aber auch ibm oder seagate hatten kurze zeit entsprechende produkte im angebot.
 
@Cruger
Gut möglich, es ist aber ein Unterschied, ob zwei eigenständige Aktuatoren verbaut sind oder ob jeder einzelne Kopfarm einen eigenen Motor besitzt.

Aus bestimmten Gründen haben sich jedenfalls die "Dual"-Aktuator-Festplatten nicht durchgesetzt. Ansonsten wäre das heutzutage Standard.
 
@Cruger
Gut möglich, es ist aber ein Unterschied, ob zwei eigenständige Aktuatoren verbaut sind oder ob jeder einzelne Kopfarm einen eigenen Motor besitzt.

Aus bestimmten Gründen haben sich jedenfalls die "Dual"-Aktuator-Festplatten nicht durchgesetzt. Ansonsten wäre das heutzutage Standard.
conner hat die teile damals afaik vor allem aus kostengründen eingestampft. dazu kam, dass die interne organisation wohl einen enormen und kaum beherrschbaren aufwand verursacht hat, der in keinem gesundem verhältnis zu standard-modellen stand. mal ganz abgesehen von der komplexität des aufbaus.

aber ich hab irgendwo beim googlen mal gesehen, dass es in den letzten jahren in den usa studien zu dem thema gab, die sich intensiv mit anwendungsmöglichkeiten von conners dual-actuator technik in der heutigen zeit beschäftigen. wer weiss, vielleicht wird das ja eines tagen wieder von dem ein oder anderen hersteller aufgegriffen.
 
Warum können die Spuren nicht direkt untereinander liegen? Die kommen doch erst beim Formatieren drauf?

Abgesehen von den der schon geklärten Tatsache, dass die Servo-Spuren in modernen Laufwerken nicht mehr von den Schreib-Leseköpfen, sondern bei der Fertigung aufgebracht werden und daher bei modernen Laufwerken auch per "Low-Level-Formatierung" nicht mehr wiederhergestellt werden können: Spätestens bei mehreren Scheiben muss die Kopfpositionierung auf jeder Oberfläche (!) individuell erfolgen. Die Wärmeausdehnung der verschiedenen Materialien für Scheiben und Kopfträger erfolgt dank im Betrieb immer ungleichmäßiger Temperaturverteilung auch unterschiedlich groß und wäre nur dann zwischen Kopf und Scheibe synchron zu halten, wenn sich die Kopfträger in radialer Richtung zu den Scheiben dehnen würden, aus Materialien mit identischem Wärmeausdehnungs-Koeffizient bestehen würden und obendrein möglichst eine auf 1/100 Grad identische mittlere Temperatur hätten. Bedingung 1 und 3 sind typischerweise nicht erfüllt und so kann man derzeit auch unbesorgt auf Bedingung 2 pfeifen und die Kopfposition für den jeweils aktiven Kopf anhand der Servo-Spuren regeln.

Diese Probleme waren zu der Zeit, als eine 5,25" - Festplatte lediglich einige 100 Spuren hatte, noch von untergeordneter Bedeutung. D.h. dort reichte bei einer Spurdichte von einigen 100 Spuren pro Zoll (TPI) locker ein Schrittmotor zur Positionierung aus. Die 7K250 - Serie von Hitachi hat(te) aber über 90000 TPI, d.h. der Schreib-Lesekopf muss auf zehntausendstel Millimeter genau positioniert werden.

Feinmechanik ist teuer und fehleranfällig. Daher scheint es derzeit unter dem Strich preiswerter und zuverlässiger zu sein, wenn man zum Erzielen einer höheren Übertragungsrate bei gleichbleibend hoher Datensicherheit mehrere Standardplatten an einen an den Host gut angebundene intelligenten Kontroller anschließt. Das eröffnet obendrein die Möglichkeit, per RAID etwas gegen die proportional zur Plattenzahl steigende Ausfallwahrscheinlichkeit zu tun.

Obendrein kann man es mit noch so hohem Aufwand nicht ändern, dass bei Datenaufzeichnung auf eine sich drehende Scheibe ein bestimmter Daten-Sektor Zeit benötigt, bis er unter einem Kopf vorbeikommt und geschrieben bzw. gelesen werden kann. Bei Standard-Platten mit 7200u/min beträgt diese Zeit im Mittel ca. 4 Millisekunden.
Das ist eine prinzipielle Schranke für wahlfreie Zugriffe, die mit vertretbarem Aufwand nicht mal um eine Größenordnung herunterzuschrauben ist. Schon daher werden irgendeinmal bei den externen Massenspeichern Konstruktionen ohne bewegte Teile die konventionelle Magnetaufzeichnung ablösen, zumindest bei den Systemlaufwerken.
In Vista sind daher schon unterstützende Mechanismen für die Nutzung von Flash-Speicher eingebaut. Das ist zwar für den typischen Office-PC derzeit so notwendig ist wie ein Kropf, aber ein PC-Enthusiast lässt sich davon ganz sicher nicht abschrecken.

Ich bin mir recht sicher, dass es auch wegen der Fortschritte beim Flash-Speicher so schnell keine Renaissance für mechanisch aufwändigere Festplattenkonstruktionen geben wird.
 
Zurück
Oben Unten