Erfahrungen mit Seagates neuen SSHD?

Krümel

Grand Admiral Special
Mitglied seit
19.08.2003
Beiträge
5.414
Renomée
530
Standort
Schleswig-Holstein
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
Hallo Forum,

ich möchte gerne meine Samsung F4 ersetzten. Sie enthält zur Zeit das BS und die Programme, als Datenplatte habe ich noch eine WD-Green.
Eigentlich wollte ich gleich auf SSD gehen, aber da ich mit einer 250er nicht auskomme (die F4 ist schon recht voll), müsste es eine 480-500er sein und die sind mir noch zu teuer.
Seagate hat jetzt ja Desktopplatte mit SSD-Cache heraus gebracht (*klick*).
Laut dem Test bei HW-Journal sollen die den BS-Start ganz gut beschleunigen und mit rund 70,- € ist die 1 TB Platte natürlich wesentlich günstiger wie eine reine SSD.
Hat die jemand von Euch schon im praktischen Einsatz und kann den Testeindruck bestätigen (oder das Gegenteil)?

Gruß
Krümel
 
In den Reviews wird immer alles 3, 4, 5 mal hintereinander gemacht, dann hat der Cache die Daten auch garantiert gespeichert und die Werte sehen gut aus. Aber es sind nur 8GB NAND verbaut und wenn Du nun nicht mehrfach hintereinander nur bootest und dann mehrfach hintereinander das gleiche Programm startest und dann mehrfach hintereinander das nächste Programm startet, so wie es die Reviewer machen, dann kann es auch anders aussehen. Ob der Cache was bringt, hängt einfach davon ab, ob die Daten die wirklich gebraucht werden, dann nicht wieder verdrängt wurden, weil zu viele anderen Daten in der Zwischenzeit gelesen wurde, die Dinger kopieren die Daten meist schon beim ersten mal lesen in den Cache, wie auch der Test der Seagate Momentus XT (750GB) bei hardwareluxx zeigt.

Beim ersten Lauf ist die immer langsam, wie eine normale HDD eben und erst beim zweiten mal wird es schneller, wie man bei HDTach und HDTune deutlich sieht. Während die IOPS im ersten HDTune-Lauf noch den typischen Festplatten-Ergebnissen entsprechen, konnte in den nachfolgenden Läufen eine Steigerung bis hin zum Faktor 67 (4 KB: 69 IOPS verglichen mit 4634 IOPS) gemessen werden, aber nur bis zu 64k, lange Zugriffe von 1MB werden nicht mehr gecacht, aber die sind bei Windows Systemlaufwerken sowieso selten.

Auf der nächsten Seite mit PCMark Vantage haben die Daten auch noch in den Cache gepasst, der wurde ab dem zweiten mal dann auch schneller, beim ersten mal war es aber so lahm wie eine HDD. Beim Mark7 sieht das schon anders aus, als zweites Laufwerk bringt der Cache da etwas, aber als Systemlaufwerk praktisch gar nichts. Wie man sieht gibt es beim 5. Lauf sogar weniger Punkte als beim ersten, da wurden offensichtlich so viele Daten bewegt, dass der Cache kaum mal einen Hit erzielen konnte weil die sich während eines Benchmarkdurchlaufs wider verdrängen, was eben auch leicht im Alltag der Fall ist, wenn man mehrere Sache mit dem Rechner macht, bevor man ihn wieder neu startet.

Hier zum Vergleich noch einige SSDs auf dem gleichen Testsystem und wie Du siehst hat die SSD hier fast genau doppelt so viele Punkte und auch die WD Black 1TB hat mehr als die SSHD, also von SSD ähnlicher Performance wie es die Hersteller immer gerne vorgeben und mache Reviewer und Werber es auch gerne schreiben, kann gar nicht die Rede sein.

Im Fazit steht aber auch deutlich genug, wo der Tester die Anwendungsgebiete sieht:
Was ich aus den Werten nicht sehe ist:
Bei PCMark7 kann von einem deutlichen Plus wohl keine Rede sein und gerade wenn man zahlreiche Anwendungen hat, wie es der Mark7 testet, dann kann von profitieren eben keine Rede sein. Das schreibt er dann ja auch im nächsten Absatz und widerspricht sich damit selbst:
Nicht nur könnte sondern wird und deshalb ist die eben keine Alternative zu einer SSD und nur für Leute, die ihr Platte wirklich wenig nutzen, also nur den Rechner booten und im Netz surfen oder Office starten, aber nicht mehr und möglichst nur eines von den beiden. Übrigens habe ich selbst auch so eine Momentus XT, aber als Datenlaufwerk und da auch noch sehr hohe Load-Unload Cylces beobachtet, während die Performance eher unauffällig ist und bei weitem nicht mit der der SSD mithalten kann, aber wenn man ein Direktory mit vielen Daten drin öfter mal öffnet, ist es schon ganz nett.
 
Hallo Holt,

danke für Deinen ausführlichen Beitrag!

Gruß
Krümel
 
Was hast Du denn für Programme, dass da 250GB nicht ausreichen??
Notfalls lagere die selten genutzten und/oder großen Programme auf die Festplatte aus, damit eine 250GB SSD für die oft genutzten Dinge ausreicht.

So eine SSHD ist einfach nur was für Laptops und Rechner, so maximal 2 kleine Programme regelmäßig ausgeführt werden.
 
Ganz so knapp ist der Flash Cache auch wieder nicht bemessen, wie er oben dargestellt wird. Die wichtigsten Bestandteile des Betriebssystem und häufig genutzter Programme passen schon ohne weiteres hinein. An diesen Daten gibt es in der Regel obendrein keine so häufigen Veränderungen, sodass sie nicht so schnell wieder aus dem Cache ausgeschlossen werden. Wenn sich der Flash Cache einmal auf das Nutzungsverhalten des Anwenders eingespielt hat, ist er schon ein spürbarer Zugewinn. Das hat eigentlich ein Großteil der bisherigen Testberichte belegt. Wenn man dem Flash Cache natürlich mit Benchmarks wie dem AS SSD zu Leibe rückt, kommt nicht viel dabei raus. Bemängeln kann man an für sich nur, dass die Ersparnis gegenüber einer getrennten SSD und konventionellen Festplatte zu klein ist. Insbesondere unter dem Gesichtspunkt, dass die beiden separaten Laufwerke noch einen (teils beachtlichen) Geschwindigkeitsvorteil haben. Der Hybrid-Massenspeicher hat nur Vorteile bei der Handhabung und beim Platzbedarf. Der Technik an sich würde ich jedenfalls nichts ankreiden wollen. Wenn man nur ein einzelnes Laufwerk mit hoher Kapazität betreiben möchte, führt kein Weg drum herum.
 
Zuletzt bearbeitet:
SPINA, da erwartest Du wohl zu viel von der Cacheverwaltung. Mache ein Backup der Platte und schon steht da nichts mehr von den Daten im Cache, die vorher drin waren. Da ist also nicht viel mit "einmal auf das Nutzungsverhalten des Anwenders eingespielt". Was die Testberichte angeht, so weißt Du doch wohl hoffentlich selbst, wie diese erstellt werden und wenn nicht, da lies noch mal meinen Beitrag, da steht es auch drin. Alleine dass die bei jedem Programm dann eine Steigerung erzielen, zeigt doch schon deutlich, wie schnell der Cache umgelernt und die zuletzt gelesenen Daten aufgenommen hat. Vergiss außerdem nicht, dass die 8GB ja auch die Verwaltungsdaten des Caches enthalten müssen und nie ganz genutzt werden können, also immer was frei bleiben muss.

Es ist letztlich genau wie MagicEye schreibt: "So eine SSHD ist einfach nur was für Laptops und Rechner, so maximal 2 kleine Programme regelmäßig ausgeführt werden." Das sind dann auch die User von SSHDs, die damit glücklich werden. Der Rest, der viele Daten von der Platte bewegt, wird enttäuscht weil er keinen Unterschied zu einer HDD spürt statt die versprochene SSD Performance zu bekommen.
 
Also ich habe eine Momentus XT als die erste Gen der SSHD, ich bin damit sehr zufrieden wenn man nicht ständig neue Programme nutzt ist der unterscheid zur SSD erstaunlich gering. Klar ist bei der Installation bzw. bei Patches der Platte anzumerken das es eine HDD ist. Aber so schlet wie sie ienige renden sidn sie nicht, vor allem besitzen wahrscheinlich die meisten Kritiker keine?!

Ich hatte mich damals für die SSHD entscheiden da ich nur einen 2,5 Slot im Notebook habe, was ich bei den neueren 2,5" schade finde das sie nur noch 5400 UPM haben. Das wäre evtl. ein K.O.-Kriterium, aber nicht der angeblich zu klein bemessene Cache.

---------- Beitrag hinzugefügt um 17:33 ---------- Vorheriger Beitrag um 17:27 ----------

SPINA, da erwartest Du wohl zu viel von der Cacheverwaltung. Mache ein Backup der Platte und schon steht da nichts mehr von den Daten im Cache, die vorher drin waren

Das ist Quatsch! Der Cacheinhalt wird bestimmt vom mehrmaligen lesen beim Backup und Defragen wird dies noch einmal bei einer Datei durchgeführt! Der Algo erkennt das! Und selbst wenn würde nach dem backup beim 2x es wieder drin stehen.

Dein schlecht reden der SSHDs ist maßlos übertrieben! Es ist je nach Anwendungsszenario SSD+HDD oder SSHD besser geeignet. Für letzere Spricht u. a. das man weniger Platz Probleme hat!
 
Schlecht sind die Dinger sicher nicht.
Und ja, meine "Erfahrungen" beruhen auf dem Lesen von Testberichten.
Aber wenn dem TO selbst eine 250GB SSD zu klein erscheint für alle Programme, dann hat er wohl mehr als nur eine Hand voll am Laufen.
 
Vielen dank für Eure Diskussionsbeiträge.
Ich habe auf der Platte mal ein wenig aufgeräumt und komme jetzt auf ca. 150 GB auf der F4, die übrigens in 2 Partitionen aufgeteilt ist, einmal 100 GB für das BS und Treiber und der Rest für Anwendungen.
Ich sollte jetzt also mit einer 250er SSD auskommen, oder gibt es immer noch die Regel aus den Anfangszeiten der SSD, dass man diese nur zu 50% füllen sollte?

Gruß
Krümel

P.S. Es werden i.d.R. immer die selben Programme ausgeführt, mir dauert das booten bis zur vollständigen Nutzbarkeit des Systems nur zu lange.
Eine SSD zusätzlich zur F4 will ich nicht installieren.
 
bbott, hat Deine XT auch so hohe Load-Unload Zyklen wie meine:

Seagate_XT750GB_CDI_nach_4835Stunden.png

Quatsch ist es übrigens vor Dateien zu Reden, denn Platten kennen keine Dateien, die sind Sache des Filesystems. Die Platten bieten nur massenweise LBAs an und speichern unter jeder LBA 512 Byte Daten. Auf sie wird mit Befehlen zugegriffen, die sie auffordern ab einem LBA soviele LBAs zu lesen oder zu schrieben. Bei 4k Clustersize sind das normalerweise immer Vielfache von 8 LBAs, die gelesen oder geschrieben werden. Ob das nun Verwaltungsdaten des Filesystems sind, eine kleine Datei oder ein Teil einer großen Datei, weiß die Platte also gar nicht.

Der Cachealgorihmus kann also niemals darauf basieren, welche Dateien oft gelesen werden, sondern nur auf den LBAs die viel gelesen werden und berücksichtigt dabei nur kurze Zugriffe, siehe #2, denn lange erledigt die HDD ja selbst schon schnell genug. Lange Zugriffe kommen aber im Windows Alltag bei Systemlaufwerken nur recht selten vor und wenn die HDD dann noch fragmentiert ist, noch seltener, da die Fragmentierung von Dateien ja bewirkt, dass statt einiger langer Zugriffe viele kurze erfolgen müssen um eine Datei zu lesen oder zu schreiben.
 
Vielen dank für Eure Diskussionsbeiträge.
Ich habe auf der Platte mal ein wenig aufgeräumt und komme jetzt auf ca. 150 GB auf der F4, die übrigens in 2 Partitionen aufgeteilt ist, einmal 100 GB für das BS und Treiber und der Rest für Anwendungen.
Ich sollte jetzt also mit einer 250er SSD auskommen, oder gibt es immer noch die Regel aus den Anfangszeiten der SSD, dass man diese nur zu 50% füllen sollte?
Dann sollte eine 250er SSD doch optimal sein.
Ich würde aber eine komplette Partition draus machen, sonst bist Du zu sehr eingeschränkt und die Anwendungen laufen eh nicht ohne das Betriebssystem, also gibt es keinen wirklichen Grund, das zu trennen.

Freilasen muß man eigentlich nichts mehr. Das macht die SSD entweder von sich aus bzw. es wäre nur relevant, wenn Du permanent zig GB an Daten neu schreibst, gleich wieder löschst etc. Wenn die SSD ohnehin die meiste Zeit im Leerlauf ist (normale Nutzung eben), dann wird sie auch voll keine Probleme haben. Wenn dann meckert eher Windows, wenn zu wenig Platz ist.
 
bbott, hat Deine XT auch so hohe Load-Unload Zyklen wie meine:

Das scheint ein allgemeines CrystalDiskinfo bzw. Seaget Problem zu sein. Wollte meine eine 7200.14 wegen einem defekten Sekor austauschen assen und habe auf die hohen Load-Unload hingewiesen.

Antwort von Seagte (aus Gedächtnis): Ein defekter Sektor stellt kein Austauschgrund dar, und die hohen Load-Unload Zyklen sind Auslesefehler welche nur mit Seagate Software korrekt ausgelesen werden kann.


Oder einfach mal neu installieren, 100GB nur OS ist ganz schön viel.

Über Systembereinigen sollte man die (Admin) Systemdateien bereinigen ausführen, um die ganzen Backups von Patches und Updates zu löschen, das bring gut und gerne 5-20GB. Da es kein Service Pack mehr gibt für Win 7 sallemt sich so einiges an :-(
 
gibt es immer noch die Regel aus den Anfangszeiten der SSD, dass man diese nur zu 50% füllen sollte?
Nein, man kann die SSD wie jede normale Systemplatte auch so bis 80%, 85% maximal 90% voll machen, mehr sollte man ja auch bei HDDs nicht machen. Wenn Windows nicht genug freien Platz auf seiner Systempartition hat, gibt es dauernd Probleme und wenn man eine Partition zu voll macht, steigt die Fragmentierung massiv an, was sich irgendwann auch bei einer SSD bemerkbar macht, weil es statt weniger langer und damit schneller Zugriffe dann irgendwann viele kurze und damit langsame Zugriffe auf die einzelnen Fragmente der Datei gibt. Bei 4k Lesend schaffen SSDs nun einmal nicht die 500MB/s lesend, die sie bei lange Zugriffen erreichen, sondern nur etwa 15 bis 35MB/s, je nach Modell.

Das scheint ein allgemeines CrystalDiskinfo bzw. Seaget Problem zu sein. Wollte meine eine 7200.14 wegen einem defekten Sekor austauschen assen und habe auf die hohen Load-Unload hingewiesen.
Was hat CrystalDiskInfo damit zu tun? Das liest nur aus, was der Controller meldet. Die Werte kommen alle auf dem Controller, CDI hat nur eine eigenen DB mit dem Namen der Attribute und bewertet selbst den Zustand, ob also Gut, Vorsicht oder Schlecht angezeigt wird. Aber Angaben in der Tabelle von den Aktuellen Werten bis zum Rohwert kommen genau so vom Controller der Platte wie CDI sie darstellt.

Wie genau die mit den S.M.A.R.T. Werte sind, zeigt sich aber gut an den Load-Unload Cylces, denn meine hat über 300.000 und der Aktuelle Wert ist auf 1 runter, die garantierten Zyklen sind demnach verbraucht. Das Datenblatt weißt aber 600.000 aus, es müssten also noch fast 50% übrig und der aktuelle Wert daher noch viel höher sein.

Antwort von Seagte (aus Gedächtnis): Ein defekter Sektor stellt kein Austauschgrund dar, und die hohen Load-Unload Zyklen sind Auslesefehler welche nur mit Seagate Software korrekt ausgelesen werden kann.
Totaler Schwachsinn was die da über die Anzeige schreiben! Das ein defekter Sektor kein Reklamationsgrund ist, kann ich ja noch nachvollziehen, aber das nur die SeaTools das korekt auslesen können, ist Müll ^3. Die SeaTools Bewertung ist aber natürlich für Frage relevant, ob es ein Garantiefall ist und da legt es eben Kriterien an, die möglichst wenige Garantiefälle ergeben. Wäre der TÜV bei der AU so lasch würde jedes Auto eine Plakette bekommen, das noch aus eigener Kraft auf den Hof fährt. :D
 
Zuletzt bearbeitet:
Oder einfach mal neu installieren, 100GB nur OS ist ganz schön viel.

Das kam falsch über. Die Partition ist 100 GB groß, belegt durch das BS und die Treiber sind aber nur 47. :-)

Gruß
Krümel
 
Der Rohwert hat aber bestimmt noch Deutungspotential, was dann entweder das Herstellertool kann oder CDI beim nächsten update auch.

300.000 Load-Unload-Zyklen erinnern mich an die WD green, die waren auf diesen Wert spezifiziert.
Vielleicht gibts daher auch hier Interpretationsbedarf.
 
Nein, es gibt kein Deutungspotential was den Aktuellen Wert angeht, denn den erzeugt der Controller selbst und deutet dafür eben u.A. den Rohwert und alle anderen Informationen, die ihm zur Verfügung stehen. Da hat die Auslesesoftware keinen eigenen Spielraum.

300.000 und auch 600.000 sind recht übliche Werte bei Consumer-HDDs. Interpretationsbedarf sehe ich nicht, nur Erklärungsbedarf seitens Seagate wieso im Controller XT 300.000 hinterlegt sind, während im Datenblatt 600.000 stehen. Das kann man mit einem FW Update natürlich korrigieren, aber ein solche habe ich zumindest für die XT auf der Seite von Seagate nicht gefunden.

---------- Beitrag hinzugefügt um 14:24 ---------- Vorheriger Beitrag um 14:23 ----------

CrystalDiskInfo ist übrigens OpenSource, da kann jeder mal reinsehen, wenn er sich dafür interessiert. Das habe ich auch mal gemacht, es ist aber schon etwas länger her.
 
"Deutungspotential" herrscht insofern, dass manche Attribute willkürlich und nicht zwingend nachvollziehbar hochgezählt werden.
Wenn S.M.A.R.T. über 300.000 Parkvorgänge ausweist, ist nicht gesagt, dass die Festplatte wirklich so viele durchgeführt hat.
Der Wert kann stimmen, aber er kann genauso gut niedriger oder gar höher ausfallen.

Oder nehmen wir das Remapping von defekten Sektoren. Den Vorgang sollen Consumer Festplatten teils verheimlichen, heißt es.
Um weniger "Garantiefälle" bearbeiten zu müssen. Enterprise Laufwerke sollen dagegen bei S.M.A.R.T. verlässlicher Auskunft geben.
Ich würde mich jedenfalls nicht immer blind auf die angezeigten Werte verlassen.

Im Grunde kocht jeder Hersteller sein eigenes Süppchen. Manche sind in der Hinsicht ehrlich, andere versuchen mehr zu verbergen.
Wenn die Festplatte zum Beispiel nach Jahren bei "Hardware ECC Recovered" noch "0" (Raw) anzeigt, kann etwas nicht stimmen.
Das wäre bei der Datendichte moderner Platter einfach unwahrscheinlich...
 
Zuletzt bearbeitet:
"k" herrscht insofern, dass manche Attribute willkürlich und nicht zwingend nachvollziehbar hochgezählt werden.
Wenn S.M.A.R.T. über 300.000 Parkvorgänge ausweist, ist nicht gesagt, dass die Festplatte wirklich so viele durchgeführt hat.
Der Wert kann stimmen, aber er kann genauso gut niedriger oder gar höher ausfallen.
Wenn ein Controller auch noch sowas simples wie die Load-Unload Zyklen falsch zählt, dann ist die Platte einfach nur Schrott. Da sehe ich wirklich kein Deutungspotential. Nach wie viele Zyklen die Platte wirklich kaputt geht, ist eine andere Frag, aber wenn das Datenblatt 600.000 ausgibt aber die Programmierer der FW von 300.000 ausgegangen sind, dann ist schon alleine das sehr seltsam.

Oder nehmen wir das Remapping von defekten Sektoren. Den Vorgang sollen Consumer Festplatten teils verheimlichen, heißt es.
Von solchen Märchen halte ich nichts. Das einzige was ich bei einigen HDDs gesehen habe ist, dass sie gar keine Schwebenden Sektoren neu zuweisen, wenn sie überschrieben wurden, aber vielleicht hat der User da auch einen Fehler gemacht und die Sektoren wurden nicht überschrieben, etwa weil doch ein Schnellformat statt einer langsamen Formatierung durchgeführt wurde.
Um weniger "Garantiefälle" bearbeiten zu müssen.
Da die Hersteller selbst entscheiden was ein Garantiefall ist, brauchen sie nicht zu solchen Stricks zu greifen und ein paar wiederzugewiesene Sektoren sind normalerweise kein Garantiegrund. Seagate hat z.B. dafür mit den Seatools ein eigenes Tool, welches den Zustand der Platte bewertet und entscheidet, ob es ein Garantiefall ist oder nicht.
Ich würde mich jedenfalls nicht immer blind auf die angezeigten Werte verlassen.
Das nicht, aber ich würde auch nicht jede Angaben immer sofort als falsch oder unzuverlässig betrachten.

Meine XT hat alle 47,4 einen Load-Unload Zyklus gehabt, bei WD gehen viele HDDs ab Werk nach 8s Idle in den Unload Zyklus, der Wert kann also durchaus passen.
Wenn die Festplatte zum Beispiel nach Jahren bei "Hardware ECC Recovered" noch "0" (Raw) anzeigt, kann etwas nicht stimmen.
Das wäre bei der Datendichte moderner Platter einfach unwahrscheinlich...
Belege? Das hängt meiner Meinung nach alleine von der jeweiligen Platte ab. Ob die Werte gelogen sind, sieht man aber mit der Zeit irgendwann sowieso, denn wenn es schwebende Sektoren gibt und vorher keine ECC da waren, dann erst wird das unglaubwürdig.
 
Wenn ein Controller auch noch sowas simples wie die Load-Unload Zyklen falsch zählt...
Was der Controller zählt und was er dem Nutzer anzeigt, sind zwei verschiedenen Paar Schuhe.
Da die Hersteller selbst entscheiden was ein Garantiefall ist, brauchen sie nicht zu solchen Stricks zu greifen...
So halten sie sich jedoch einige unberechtigte Forderungen vom Hals, die sie sonst abschlägig bearbeiten müssten.
Belege? Das hängt meiner Meinung nach alleine von der jeweiligen Platte ab.
Ich halte die Ansicht vieler Experten, dass die Datendichte moderner Festplatten nur mit extensiver Fehlerkorrektur zu händeln ist, für nicht so abwegig.
Von solchen Märchen halte ich nichts.
So unwahrscheinlich finde ich das gar nicht. Welche Consumer Festplatte weist denn schon mal über S.M.A.R.T. einen Reallocated Sector auf? Das geschieht sehr selten meiner Erfahrung nach. Meine SCSI Laufwerke haben dagegen durchgängig alle paar Monate mal einen auf dem Konto. Solche Fehler treten dort zwar nicht am laufenden Band auf, aber nach drei Jahren Dauerbetrieb haben sie bestimmt wenigstens einen solchen Vorfall gehabt; wenn nicht mehr.

Ergänzung: Es ist natürlich möglich, dass SCSI Laufwerke weniger Anläufe nehmen den Sektor zu beschreiben, als solche mit ATA Technik.
 
Zuletzt bearbeitet:
Experten nennen sich viel, wirkliche Experten sind aber nur sehr wenige.

SAS Platten werden normalerweise in wirklich professionellen RAIDs verwendet und nicht mit 512 Byte sondern 520 oder 528 Byte pro Sektor verwendet. Dies 8 bzw. 16 Extra Bytes werden für die Prüfsumme verwendet, die der Controller selbst dort schreibt im Lesefehler sofort zu erkennen und über die Parity Daten zu recovern, denn Profis nutzen keine RAIDs ohne Parity. Daher wissen die Controller der Platten gar nichts von den Lesefehlern und können sie auch nicht registrieren, da diese nur dem RAID Controller bekannt sind. Normale SATA Platten werden meist ohne RAID verwendet und müssen natürlich versuchen jeden Sektor korrekt zu lesen, es ist ja keine Parity vorhanden, aber das würde bei einem professionellen RAID eine viel zu lange Wartezeit bedeuten.

Da SATA Platten keine andere Sektorgröße als 512 Bytes (4096 bei den neuesten Platten/SSDs) erlauben, sind auch alle RAID mit SATA Platten nur Krücken. Da hat man immer das Problem mit den Timeouts und wenn man den Timeout (TLER) der Platte nicht einstellen kürzer als den des RAID Controller / der RAID SW einstellen kann, fliegt die Platte aus dem RAID. Wird der Sektor dann doch noch soweit gelesen, dass mit der ECC die Bitfehler behoben werden können, so findet man in den S.M.A.R.T. Werten nicht einmal die schuldige Platte bzw. sieht diese noch gut aus.
 
Daher wissen die Controller der Platten gar nichts von den Lesefehlern...
Ich denke die Fehlerkorrektur von HDD und HBA spielen sich auf zwei verschiedenen Ebenen ab. Oder nicht?

Und die Festplatte wäre th. in der Lage fehlerhafte Daten bei einem RAID zu erkennen. Sie hat sie schließlich vorher geschrieben.
Die Frage ist nur, ob sie dabei darauf verzichtet hat Wiederherstellungsinformationen zu erzeugen; ob sie das aus der Hand gibt.
 
Ich denke die Fehlerkorrektur von HDD und HBA spielen sich auf zwei verschiedenen Ebenen ab. Oder nicht?
Bei SCSI/SAS Platten die auf eine Sektorgröße <> 512 Byte eingestellt sind, beliebt die Fehlererkennung alleine de RAID Controller überlassen, den wenn die HDDs versuchen würden durch mehrfaches Lesen den Sektor doch noch fehlerfrei zu lesen, dann würde das RAID viel zu lange blockiert sein.

Und die Festplatte wäre th. in der Lage fehlerhafte Daten bei einem RAID zu erkennen. Sie hat sie schließlich vorher geschrieben.
Erstens kontrollieren die Festplatten die Daten nicht nach dem Schreiben, sonst wäre die Schreibrate ja deutlich geringer als die Leserate. Das Überprüfen der Daten nach dem Schreiben passiert nur, wenn ein Schwebender Sektor überschrieben wird.
Die Frage ist nur, ob sie dabei darauf verzichtet hat Wiederherstellungsinformationen zu erzeugen; ob sie das aus der Hand gibt.
Welche Wiederherstellungsinformationen? Die Platte kann nur die ECC Daten schreiben die vorgesehen sind und damit kann man nur die Anzahl an Bitfehlern korrigieren, die die Anzahl der ECC Bits zulässt. SAS Platten haben keine Wiederherstellungsinformationen, da dies alleine Sache des RAID Controllers ist.
Letzlich ist es immer eine Frage der Konfiguration und echte Profi nutzen keine Platten ohne Parity, selbst Blade Server haben ein RAID 1 und da ist jeden Wartezeit der Platte um einen Sektor doch noch fehlerfrei zu lesen unerwünscht. SATA Platten sind dagegen i.d.R. auf den Einsatz ohne RAID ausgelegt und müssen daher versuchen jeden Sektor zu lesen, wobei auch eine längere Wartezeit das kleinere Übel ist.
Man kann echte SCSI/SAS/FC RAIDs nicht mit den Krüppel-RAIDs mit SATA/IDE Platten vergleichen, die nur halbwegs funktionieren, wenn man die TLER so einstellen kann, dass sie unter dem Timeout des RAID Controllers liegt. Kann man nicht einmal das, hat man echt ein Problem.
 
Also aus eigener praktischer Erfahrung kann ich mich Bbott nur anschließen.

Ich habe selbst lange Zeit eine MomentusXT als Systemplatte genutzt auf der auch ein paar Spiele lagen. Auch wenn man nicht jeden Tag ein identisches Nutzungsverhalten zeigt beschleunigt die Platte das System deutlich. Ich war auch erst skeptisch aufgrund vieler Testberichte die damals durchs Netz kreisten und der Platte eine sehr eingeschränkte Nutzungsmöglichkeit bescheinigten. Das hat sich aber dann nach ein paar Tagen Nutzung zerstreut. Das System wurde so beschleunigt dass ich beim Kauf meiner ersten SSD zunächst enttäuscht war. Beim "normalen" täglichen Nutzen des Rechners gab es kaum messbare Vorteile für die SSD wenn es ums Lesen ging.

Die Frage normale Festplatte oder Hybridplatte stellt sich bei mir nicht mehr wenn es keine SSD werden soll. Wenn eine Festplatte eingesetzt werden soll würde es zu 100% wieder eine Hybridplatte werden.
 
Zurück
Oben Unten