Samsung P120 SATA II: 200GB Oder 250GB?

Jensematz

Grand Admiral Special
Mitglied seit
29.12.2003
Beiträge
4.440
Renomée
195
Ist ein Unterschied in der Performance bei der P120 SATA II 200 GB zur 250 GB fest zu stellen? Oder ist die Datendichte bei den zwei Platten die selbe? Stimmt es das diese Platten eine Transferrate von ca. 57 MB/s haben?
 
Nimm die 250GB Platte die hat ne höhere Datendichte und is somit viel schneller als die 200GB pladde!

btw die Suchfunktion issn cooles gimmick dieses Forums...

cYa pl1zahd
 
Jo, nach aktuellen Tests ist die Serie die schnellste aller S-ATA 2 Platten.

Gruß GSJLink
 
GSJLink schrieb:
aus diesem Posting

Jo, nach aktuellen Tests ist die Serie die schnellste aller S-ATA 2 Platten.

Gruß GSJLink

aber auch bei solchen tests, die sich auf einfache low-level-benchmarks beschränken :]
 
Ich habe vergessen zu schreiben nur bei den 7.200upm Platten :D den 10.000upm Platten ist die Serie natürlich unterlegen ^^

Gruß GSJLink
 
Also ist es besser die 250'er zu nehmen?
Könnte ja auch sein das zwischen der 200'er & der 250'er kein Unterschied ist bis auf die Größe.
 
Jensematz schrieb:
aus diesem Posting

wieso?
kann ich nicht lesen? da haben doch die samsung die höchsten werte?!

:]

beim anwendungsindex erreicht die 250gb wd raid edition 25,8, die hitachi t7k250 25,7 und die samsung p120 23,7 .....
 
Sorry, hab nur auf die anderen Zahlen geschaut.
Dann würde ich die 250'er Samsung nehmen, da ich mit Samsung immer sehr zufrieden war.
1000 Dank an alle!
 
cruger schrieb:
aus diesem Posting

:]

beim anwendungsindex erreicht die 250gb wd raid edition 25,8, die hitachi t7k250 25,7 und die samsung p120 23,7 .....

toll, und beim durchsatz siegt die samsung locker mit 68,6 mb/s gegenüber 62,1 mb/s und 64,6 mb/s...

und darauf kommt es doch beim kopieren/verschieben grosser mengen an daten an.
 
Evil_Ash schrieb:
und darauf kommt es doch beim kopieren/verschieben grosser mengen an daten an.

und genau so etwas kommt bei desktop-anwendungen eher selten vor .... :]

gerade beim betriebssystem werden z.b. ziemlich selten große datenmengen am stück gelesen.

abgesehen davon gibt es eine menge einflußfaktoren, die bei der betrachtung der transferrate allein schlicht nicht berücksichtigt werden, z.b. cache-strategien/read-ahead-algorithmen, features wie ncq oder generelle firmware-optimierungen. all das findet beim messen der transferrate ganz einfach keine berücksichtigung. und genau aus dem grund sind alle low-level-benchmarks, die allein zugriffszeit und transferrate messen zur beurteilung einer realitätsnahen anwendungsperformance völlig ungeeignet. kürzere zugriffszeiten oder höhere transferraten führen nicht zwangsläufig auch zu einer höheren anwendungsperformance, da es vieles jenseits dieser indikatoren gibt, was diese benchmarks nicht berücksichtigen.

natürlich kann man ansatzweise rückschlüsse auf bestimmte einsatzgebiete erhalten, eine festplatte mit einer hohen transferrate ist für anwendungen, die davon profitieren (musik- oder videobearbeitung, kopieren großer dateimengen am stück), tendenziell besser geeignet als eine platte mit geringerer transferrate.
 
das einzige, was sich in den letzen jahren verändert hat, ist doch die transferrate. selbst meine 170er platte von vor 13 jahren hatte eine zugriffszeit von unter 20ms.
ok, der cache ist vergrössert worden und die strategien verfeinert, aber das bringts nicht.
 
Evil_Ash schrieb:
ok, der cache ist vergrössert worden und die strategien verfeinert, aber das bringts nicht.

man könnte wohl sagen, daß gerade das viel mehr bringt als alles andere.

sieht man im übrigen sehr gut bei neuen scsi platten, von denen einige 15k modelle trotz transferraten von bis 90mb/s und mittleren zugriffszeiten von 5 bis 6ms beim h2benchw einen anwendungsindex von vielleicht 15 erreichen (die besten sata-modelle liegen bei knapp 26). genau da sieht man sehr gut, was es ausmachen kann, wenn die firmware von festplatte extrem auf server-typische zugriffsmuster optimiert wurde und sich bei typischen desktop-anwendungen schwer tun, trotz überragender transferrate und sehr niedrigen zugriffszeiten.

Quelle : c't Ausgabe 06/2005 - ab Seite 222 - Plattenkarussell

Praxistauglichkeit

Schnellen SCSI-Platten sollte man aufgrund ihrer hohen Transferraten und der geringen Zugriffszeit eigentlich eine gute Anwendungsperformance zutrauen. Umso überraschender war für uns das Messergebnis bei den aktuellen SCSI-Laufwerken von Hitachi (Ultrastar 10K300), bei denen wir einen Wert von nur knapp zehn ermitteln konnten und die damit in dieser Disziplin schlechter als aktuelle Notebook-Platten abschneiden.

Anders als bei den SCSI-Platten von Maxtor und Fujitsu kommt die Firmware von Hitachis Serverlaufwerken offensichtlich weniger gut mit dem Zugriffsmuster Windows-typischer Einzelanwendungen, wie es H2benchw simuliert, zurecht. Ähnliches ist auch bei Seagates Cheetah 15K.4 zu beobachten. Da die Messung der anderen Leistungswerte wie Dauertransferrate und mittlere Zugriffszeit allerdings gute Werte ergeben, ist davon auszugehen, dass sowohl Hitachis als auch Seagates aktuelle SCSI-Laufwerke bei Serveranwendungen mit hohem Datendurchsatz eine gute Leistung bieten werden.
Quelle : c't Ausgabe 14/2003 - ab Seite 136 - Plattenkarussell

So testen wir Festplatten

Der Festplattenbenchmark H2benchw misst zunächst die Dauertransferrate, indem er alle Sektoren der Platte der Reihe nach liest beziehungsweise schreibt und dabei die Transferrate als Messkurve über der Kapazität aufträgt. Durch die Unterteilung der Magnetscheiben in Zonen mit unterschiedlicher Sektoranzahl pro Spur ergibt sich eine treppenförmig abfallende Kurve, weil im Außenbereich der Scheiben mehr Sektoren pro Umdrehung gelesen und geschrieben werden.

Die mittlere Zugriffszeit bestimmt H2benchw, indem er ein paar tausend zufällig gewählte Sektoren liest oder schreibt und die benötigte Zeit mittelt. Die Messwerte liegen über denen der Hersteller, weil diese nur die reine Positionierzeit des Kopfes angeben, statt auf den betreffenden Sektor zuzugreifen, sind aber auch praxisnäher.

Der Anwendungsindex ist ein Test, der die Performance eines Laufwerks im Alltagseinsatz widerspiegeln soll. Dazu haben wir in Situationen, in denen die Plattengeschwindigkeit wirklich Einfluss auf die Systemperformance nimmt, typische Zugriffsmuster aufgezeichnet. Es handelt sich um Protokolle umfangreicher Swap-Aktivitäten, das Öffnen eines großen Word-Dokumentes und anschließendes Speichern im Rich-Text-Format, eine komplette Office-Installation, Laden, Filtern und Speichern eines 100 MByte großen Bildes mit Photoshop, das Kopieren vieler Dateien aller Größen und ein F-Prot-Durchlauf über eine gut gefüllte Festplatte. Sowohl Aufzeichnung als auch Abspielen erfolgt unter Windows XP, sodass es unter anderen Betriebssystemen zu geringfügigen Abweichungen kommen kann.

Der Benchmark spielt die aufgezeichneten Muster ab und errechnet aus den gemessenen Zeiten den Anwendungsindex, der nicht nur von Transferrate und Zugriffszeit abhängt, sondern ebenso von Cachegröße und -strategie der Platte und anderen Firmware-Eigenschaften.
 
Zurück
Oben Unten