Höhere Datendichte = höhere Geschwindigkeit?

Cartouce

Fleet Captain Special
Mitglied seit
21.05.2009
Beiträge
290
Renomée
0
Standort
Emsland
Hi !:)

Sitz gerade bei nem Bekannten und diskutier ein wenig über Festplatten. Folgende Theorie steht gerade im Raum : Festplatten mit höherer Kapazität haben '(bei gleicher Anzahl Plattern (heissen die so ????)) einen höhere Datendichte (stimmt das ?*noahnung*) und demzufolge auch eine höhere Datenübertragungsrate, weil ja mehr Daten pro Fläche vorhanden sind ....

Also wären doch z.B. 2,5" Festplatten mit hoher Kapazität die leistungsfähigeren Platten (der Preis spielt ausnahmsweise mal keine Rolle*lol*)
 
Die Theorie stimmt nur bedingt. Eine 1GB Platte ist nicht schneller als eine 500GB Platte nur weil sie größer ist. Viel mehr geht es um die verwendeten Platter, also die Anzahl und Art der Magnetscheiben. Eine 500GB Platte besteht aktuell aus eben einem 500GB Platter, die 1TB Platte hat eben zwei davon.

Höhere Datendichte auf den Plattern, also z.B. 333GB Platter gegen 500GB Platter, ist die mit der höheren Datendichte, also der 500GB Platter schneller. So die Theorie. Die Praxis sieht ein wenig anders aus da noch andere Faktoren mitspielen. Z.b. die Drehzahl, der Steuerchip der Platte, der Cache u.s.w.! Eine Festplatte die mit Plattern ausgestattet ist die eben eine höhere Datendichte aufweisen ist in der Regel aber nicht zwingend schneller.
 
Zunächst mal Danke für deine Antwort.

Naja, wir gehen bei dieser Theorie schon von identischen Werten, was Drehzahl, Cache usw. angeht,aus, denn es geht ja wirklich darum ob die oben genannte These so zutrifft.
Das ließe sich bei bei der Umsetzung in die Praxis ja auch berücksichtigen - nur bei der Steuerelektronik könnte das schwierig werden.

Beispiel :
1x 2.5" (1TB) HDD
1x 3.5" (1TB) HDD

Mit jeweils einem Plattern. So wäre doch, unter der Annahme, dass alle anderen Faktoren identisch sind, die 2.5" HDD schneller weil sie, zwangsläufig, mehr Daten pro cm² hätte.

Oder verstehe ich da immer noch was falsch? ???
 
Theoretisch wäre das richtig. Praktisch aber nicht ganz vergleichbar da die kleinere Größe, der 2,5" Platte, schon eine andere Technik und einen anderen Steuerchip voraussetzt. Rein auf die Datendichte bezogen wäre das aber richtig.
Denn der Lesekopf gleitet über mehr Daten bei höherer Dichte, kann demnach mehr in der selben Zeit lesen.

Aber wie gesagt, in der tatsächlichen Praxis sieht das etwas anderes. aus.Zumal sich das auch rein auf die Übertragungsraten bezieht, ebenfalls wichtig, wenn nicht sogar fast wichtiger sind aber die Zugriffszeiten.
 
2,5"-Platten werden ja für andere Anwendungsgebiete gebaut als (Desktop-)3,5"-Platten. Im Notebook kommt es auf Stoßunempfindlichkeit, geringe Lautstärke und geringen Stromverbrauch an, hohe Leistung steht eher hinten an. Es gibt aber auch 2,5"-Platten für Server, die besonders schnell drehenden Platten sind meistens 2,5"-Platten (zumindest intern, auch wenn sie eine 3,5"-Bauform außen bekommen, damit sie gehäusekompatibel bleiben), weil man da weniger Probleme mit der sich drehende Masse hat und auch der Arm kürzere Strecken zurücklegen muß. Die Firmware von Notebook- und Serverplatten ist natürlich auch völlig unterschiedlich.

Man muß also immer die einzelne Platte betrachten, allgemeine Aussagen können grundsätzlich richtig sein und im Einzelfall trotzdem unzutreffend.
 
Je höher die Datendichte desto höher die lineare Lese- und Schreibrate.

Wenn es allerdings zu vielen kleinen Dateien kommt ist die Zugriffszeit wichtig und da kocht jeder Hersteller mit jeder Serie sein eigenes Süppchen. Bei gleicher Drehzahl erreicht man eine schnellere Zugriffszeit nur durch schnellere Kopfpositionierung und das erzeugt mehr Lärm. Das ist oftmals aber ungewollt, also gehen die meisten Hersteller einen Kompromiss ein oder bauen verschiedene Serien. Als Beispiel mal WD. Die Blacks haben gute Zugriffszeiten, rappeln aber vernehmlich. Die Blue sind der Mittelweg und die Green sind sehr leise (haben aber zusätzlich auch "nur" 5400 upm).

Dabei darf man allerdings keine 2,5er und 3,5er Modelle vergleichen, da die Wege zur Kopfpositionierung bei kleineren Plattern kürzer sind. Man kann also mit kleineren Plattern kürzere Zugriffszeiten erzielen hat aber Nachteile bei der Kapazität (nicht bei der Datendichte) weil so ein Platter nunmal weniger Oberfläche hat.
 
Sorry wenn ich den Thread hier nochmal reanimiere, aber ich hatte mit einen Kollegen eine ähnlich Diskussion.

Das Argument war:
Festplatten mit mehreren Plattern sind schneller, da sie ja mehr Lese- und Schreibköpfe haben und damit geleichzeitig lesen oder schreiben könnten. Ein internes RAID sozusagen.

Ist das korrekt?
Ich hatte eigentlich immer den Merksatz im Kopf: "Weniger Platter - schneller, leiser, kühler".
 
Nein, das ist falsch, da die Schreib-/Leseköpfe nicht unabhängig voneinander gesteuert werden, sondern fest miteinander verbunden sind. Somit kann immer nur aus einem Sektor gelesen oder in einen geschrieben werden.

Bei weniger Plattern mit insgesamt der selben Kapazität (also 1x500 GB Platter vs. 2x250 GB Platter) liegen die Datenspuren dichter beieinander und die Schreib-/Leseköpfe brauchen im Idealfall (z.B. wenn die Daten per NCQ geordnet wurden) weniger Wegstrecke zum Positionieren.
 
Danke für die Klarstellung.

Aber dazu noch eine Frage:
Die Festplattencontroller können die Daten nicht so ablegen, das sich zusammenhängende Daten genau "übereinander" befinden und damit ein weiterer Lese-/Schreibkopf ohne repositionieren im gleichen Zylinder (nennt man das so?) arbeiten kann?
 
Wer weiß, womöglich machen die Festplatten-Controller dies bereits intern so. ;)
 
Aber dann müssten Festplatten mit mehreren Plattern eigentlich von Natur aus um einiges schneller sein. Was aber nicht meiner Beobachtung entspricht.
Deshalb meine Frage dazu, da ich weiß, dass sich hier einige Festplattencracks rumtreiben die meine Vermutungen mit Wissen untermauern können :)
 
Hallo,

ich glaube kaum, dass die HDD die Daten für sich passend auf den Plattern so ablegt, dass die Zugriffe optimiert sind. Wie soll das gehen? Woher soll die Platte wissen, welche Dateien wie zusammenhängen? Unterschiedliche Betriebssysteme, unterschiedliche Konfigurationen, unterschiedliche Treiber usw. Das soll eine Festplatte in Echtzeit passend sortieren? Die haut stur die Daten, die über das Betriebssytem geschickt werden, auf die vorbestimmten Sektoren. Einzig das Betriebssystem sortiert etwas vor, z. B. ein schnellerer Rechnerstart, wenn die Daten in den äußeren Sektoren liegen.

Bei einer SSD ist das wieder etwas anders. Da sortiert der Controller die Daten etwas anders, um freie Blöcke für den direkten Schreibzugriff freizuhalten.

Gruß
 
Mein Kommentar war auch nicht ganz ernst gemeint, schließlich gibts wirklich kaum Abweichungen zwischen verschieden großen Modellen einer Serie.

Man könnte aber theoretisch trotzdem sowas realisieren. Der Sektor erstreckt sich eben nicht nur auf einem Platter, sondern komplett über alle. Wenn dann der Zugriff auf diesen Sektor erfolgt, wird er mit sämtlichen Köpfen ausgelesen oder geschrieben. Intern muß der Controller halt den Sektor aufsplitten. Völlig undenkbar wäre das grundsätzlich nicht.
 
Das wäre ja was ähnliches wie ein RAID0, nur intern in der Platte. Allerdings müsste dann der Lese/Schreibkopf auch so optimiert werden, dass er parallel mehrere Platter lesen bzw. schreiben kann. Angesichts des SSD-Hypes glaub ich nicht mehr dass sowas kommt.

Gruß
 
Festplatten mit höherer Kapazität haben '(bei gleicher Anzahl Plattern (heissen die so ????)) einen höhere Datendichte (stimmt das ?*noahnung*)
ja
und demzufolge auch eine höhere Datenübertragungsrate, weil ja mehr Daten pro Fläche vorhanden sind ....
Platten mit einer höheren Datendichte sind schlicht neuer und haben aktuellere Technik, darum können sie schneller sein und mehr Daten schaufeln. Müssen sie aber nicht.

Aktuelle günstige Platten haben eine höhere Datendichte als so manch älteres Hi-End Modell sind aber langsamer.

Die Datendichte hat also primär erst mal so gut wie gar nichts mit der Geschwindigkeit zu tun. Sondern nur was mit den Produktionskosten.
 
Auch primär hat die Datendichte damit zu tun. Wenn bei einer Umdrehung mehr Daten gelesen werden können, weil sie eben dichter gepackt wurden, würde ich das als direkte Abhängkeit sehen.
 
Dazu muss aber wieder die entsprechende Technik vorhanden sein, denn um mehr Daten lesen zu können muss alles dahinter auch in der Lage sein diese Daten zu verarbeiten. Man kann auch bei weniger Datendichte einfach die Drehzahl hoch setzten und so auch mehr Daten in der selben Zeit lesen. Also macht die Datendichte keine höhere Geschwindigkeit wie gefragt wurde.
 
Doch, höhere Datendichte bringt direkt höhere Lese/Schreibgeschwindigkeiten mit sich.

Bei gleicher Drehzahl fliegen bei einer Umdrehung des Plattenstapels mehr Sektoren unter dem Lesekopf hindurch als bei geringerer Datendichte.
 
Dazu muss aber wieder die entsprechende Technik vorhanden sein,
Davon kann man ausgehen.
Ohne die nötige Technik hätten die Hersteller die Datendichte nicht steigern können ;)
 
Wie soll das gehen? Woher soll die Platte wissen, welche Dateien wie zusammenhängen?
Gäbe es keine SSDs wäre sowas bestimmt noch gekommen.
Und zwar nicht auf Dateiebene sondern auf Bitebene. Der Controller schreibt das obere Nibble eines Bytes auf die eine Seite des Platters und gleichzeitig das untere Nibble auf die andere.
 
In dem Zusammenhang hab ich auch schon ewig eine Frage...

Man beobachtet in Benchmarks ja, dass die Leserate "über den Test hinweg" abfällt (z.B. http://www.chip.de/ii/3/4/1/9/7/4/1/e3777ed56bb4d487.jpg). Was genau wird auf der x-Achse überhaupt angezeigt?

Bei HDTach steht dort ja die Kapazität. Es wäre allerdings nur für 1-Platter-Platten sinnvoll, dass die Datenrate kontinuierlich abfällt, da ja von außen nach innen die Bahngeschwindigkeit abnimmt. So weit so gut... allerdings hat man bei z.B. 3 Plattern ja mehrere Abschnitte "von außen nach innen". Nur die Bahngeschwindigkeiten betrachtet müsste man also bei z.B. einer 300GB 3-Platter bei 0, 100 und 200GB ein Maximum der Leserate finden... und die Minima müssten auch die selben Werte annehmen, wo ist der Denkfehler?
 
Zuletzt bearbeitet:
Die Leseköpfe für alle Platter bewegen sich gleichzeitig. Es wird nicht ein Platter vollgeschrieben und dann der nächste.

So vermute ich, das zuerst Track 1 auf Platter 1 geschrieben wird, dann T1 auf P 2, und zum Schluß T1 auf P 3. Erst dann springt der Lesekopf zu Track 2.
 
wo ist der Denkfehler?
Vielleicht hast Du da einen Vergleich mit ner Schallplatte im Kopf, die erst komplett abgespielt wird und dann kommt die nächste Scheibe dran ;)
Intern werden wohl quasi erst eine "Spur" über alle Scheiben verarbeitet, dann kommt die nächste Spur wieder über alle Scheiben. Eben damit der Lesekopf nicht so viel herumschwirren muß (außer man hat eh nur eine Partition über die gesamte Platte).
 
Ich würde schon sagen je höhe die Datendichte um so Höhe die Geschwindigkeit (allgemein gesehen,geigneter Controller vorrausgesetzt), da mehr Daten in einen Rutsch gelesen/geschrieben werden können (zur Vereinfachung Drehzahl bei allen Beispielen gleich zb 5400 U/min)

3,5 Zoll Festplatten sind gegen 2,5 Zoll Festplatten im Vorteil da vor allem die äusseren Spuren einen grössen "Durchmesser" haben und somit mehr Daten auf der Spur liegen
und auch in ein Rutsch gelesen/geschrieben werden und der Kopf weniger arbeiten muss.

Raid0 erhöht die Geschwindigkeit da 2 Festplatten sich die Daten teilen, da Sie aber mechanisch nicht mitander verbunden müsste die Leistung schwankend sein ,mal laufen sie fast doppelt so schnell (Bezogen im Vergleich zu 1 HD), im schlechtestem Fall kaum schneller. Es kommt halt drauf an wo die Sektoren bei beiden Platten grade sind, liegen Sie günstig oder im Augenblick ungünstig zueinander.
Die Zugiffzeit leidet auch da meistens eine Festplatte auf die andere warten muss.

Also eignet sich Raid0 mehr für grosse zusammenhängene Dateien mfg:)

wikipedia....RAID
http://de.wikipedia.org/wiki/RAID

wikipedia.....Festplattenlaufwerk
http://de.wikipedia.org/wiki/Festplattenlaufwerk
 
Zuletzt bearbeitet:
Zurück
Oben Unten