WD20EARS defekt nach ~5 Monaten

flashbang

P3DN Vize-Kommandant, Special, ,
Mitglied seit
20.07.2005
Beiträge
1.296
Renomée
17
Standort
Petting
Gerade hat mein NAS angefangen zu piepsen. Nachgesehen und festgestellt, dass eine meiner WD20EARS defekt ist.

Hab hier mal nen Screenshot angehängt. Könnt Ihr mir sagen ob die Werte der gesunden HDD nach ~5 Monaten OK sind? Nicht das es am Betrieb des NAS liegt.
 
Was für ein NAS ist es denn?

Bei den WD20EARS kann ich mich erinnern dass Synology von der Verwendung in ihren NAS-Geräten abgeraten hat - warum weiß ich auch nicht mehr.
 
Handelt sich um ein DS211er von Synology. Aber was mir vorher nicht aufgefallen ist, die Load Cyle Count Werte sind ja mal übelst hoch.

Austausch HDD dürfte demnächst ankommen. Gleich dann beide HDDs "WDIdlen".

Die Warnung bei Synology bezog sich meines Wissens auf die 4kb Formatierung.
 
Nach den katastrophalen Bewertungen bei Newegg ist es momentan sehr schwierig, überhaupt zuverlässige Platten zu finden, insbesondere 2TB Platten.

Haben ältere Platten oft nur 10% schlechte Bewertungen, sind es bei neuen 2TB Modellen schon 33% - mit zahlreichen Berichten auch über mehrfache Reklamationen. Am besten schneidet momentan wohl noch Samsung ab.

Ich bin mittlerweile richtig verunsichert, welche großen und schnellen Platten man überhaupt noch kaufen kann. Das Thema der Festplatten-Zuverlässigkeit brennt mir bei Forendiskussionen längst am meisten auf den Nägeln. Seltsamerweise gibt es dazu aber kaum Diskussionen, gerade auch hier bei P3D.. ? Entweder spielen hier alle nur oder die Ausfall- und DOA-raten sind doch nicht so hoch, wie mitunter berichtet...

Ich habe mit meinen Samsung F3, F4 und WD EARS Platten bisher Glück. Als ich die kaufte, hatten die aber auch noch etwas Geld gekostet...
 
Ich würde die an einem PC mit dem WD Tool auf defekte untersuchen und ggf. reklamieren. Die anderen Platten würde ich gleich mit Testen. Du scheinst die WDs nicht in wegen den Load Cyle bearbeitet zu haben (google-Suche nutzen).

Die WD green sind übrigens nicht für den Dauerbetrieb ausgelegt bzw. eingestellt, man muss diese erst Modifizieren. Da ansonsten die Load Cyle förmlich explodieren und die Platte extrem schnell altert.
 
Komische SMART-Daten - Current Pending Sector und Offline Uncorrectable werden als gesund angegeben obwohl die Rohdaten (dezimal scheinbar) eine andere Sprache sprechen mit Werten von 203 und 56.
 
Nach den katastrophalen Bewertungen bei Newegg ist es momentan sehr schwierig, überhaupt zuverlässige Platten zu finden, insbesondere 2TB Platten.

Haben ältere Platten oft nur 10% schlechte Bewertungen, sind es bei neuen 2TB Modellen schon 33% - mit zahlreichen Berichten auch über mehrfache Reklamationen. Am besten schneidet momentan wohl noch Samsung ab.

Ich bin mittlerweile richtig verunsichert, welche großen und schnellen Platten man überhaupt noch kaufen kann. Das Thema der Festplatten-Zuverlässigkeit brennt mir bei Forendiskussionen längst am meisten auf den Nägeln. Seltsamerweise gibt es dazu aber kaum Diskussionen, gerade auch hier bei P3D.. ? Entweder spielen hier alle nur oder die Ausfall- und DOA-raten sind doch nicht so hoch, wie mitunter berichtet...

Ich habe mit meinen Samsung F3, F4 und WD EARS Platten bisher Glück. Als ich die kaufte, hatten die aber auch noch etwas Geld gekostet...
Die Frage bei Statistiken ist eben immer, für welchen Bereich diese aufgestellt ist bzw wer die Daten zusammengetragen hat oder aus welchem Nutzerkreis sie stammen.

Ich behaupte einfach mal dass die 33% Negativbewertungen hier auf P3d nicht zustande kommen würden. Ich behaupte weiterhin, dass der durchschnittliche User auf P3d ansatzweise begriffen hat, wie so eine HDD zu behandeln ist.
Ich dachte ja früher auch dass kalt gut sei...habe meine Festplatten vor zig Jahren bei irgendwas unter 20° gehalten. Erst durch das Lesen auf P3d bin ich irgendwann drauf gekommen, dass es nicht gut ist. Genausowenig wie das bewegen einer laufenden Festplatte oder das Vollpacken der Platte bis aufs letzte Byte, was die Leseköpfe unnötig beansprucht. Seither beachte ich solche Grundregeln und kann mich auch nicht sonderlich beschweren.

Wieviele von den 33% aber diese Grundregeln kennen, wissen wir nicht.
 
Wieviele von den 33% aber diese Grundregeln kennen, wissen wir nicht.
Teilweise liegt es auch den Gehäuseherstellern. In vielen Gehäusen werden die Festplatten inzwischen entkoppelt montiert und das mehr schlecht als recht.

Dies steigert nicht nur die Zugriffszeiten, sondern blockiert zugleich die Wärmeabfuhr und führt zu einem höheren Verschleiß durch stärkere Vibrationen.
 
Load Cycle Count 98863 bei nur 2015 Stunden, wenn ich sowas schon sehe wird mir übel. Das wären in etwa ein LoadCycle aller 1min15s wenn ich mich nicht verrechnet hab. Absolut inakzeptabel für eine HDD. Wenn das gesund wäre, würden Businessmodelle nicht mit einer maximalen LoadCycles für ihre Spezifikationen kommen.

Zweite Platte nur knappe 11000 bei gleicher Laufzeit und die Daten der zweiten sind vollkommen i.O. . Scheint als ob Deine/die NAS- Konfig versaut ist, war gar die eine Systemplatte und die Defekte ein Datengrab gewesen? Durchaus möglich, dass ein Austauschmodell den gleichen Tod erleidet, wenn sich da nix ändert.
 
war gar die eine Systemplatte und die Defekte ein Datengrab gewesen?

Öhm, das verstehe ich jetzt nicht ganz? Wenn die Defekte nur ein Datengrab gewesen ist hätte es doch keine Probleme geben sollen?
Oder meinst du dass eventuell versucht wurde eine Systemplatte auf ein Datengrab abzusichern?
 
Öhm, das verstehe ich jetzt nicht ganz? Wenn die Defekte nur ein Datengrab gewesen ist hätte es doch keine Probleme geben sollen?
Oder meinst du dass eventuell versucht wurde eine Systemplatte auf ein Datengrab abzusichern?

Problem der meisten proprietären NAS ist halt, dass man kaum Einfluß auf die Konfig hat. Wenn dann so eine HDD mit extrem niedrigen LoadCycle aller paar Minuten wieder aufgeweckt wurde, dann pfuscht irgendeine Log-, Dateisystem- oder sonstige Funktion sinnlos herum.
Nun mag man Glauben, so eine NASkiste hat ja gar keine Systemplatte. Halb richtig, die Wortwahl war wohl irreführend. Wenn die Funktionen wie Webserver oder ähnliches (die Kiste des Threaderstellers bietet ja ne Menge Serverdienste) genutzt werden, haben diese ihre Quelldaten auf einer der HDD und u.U. werden ständig Zugriffe gemacht um die Zusatzdienste am laufen zu halten.

Hier also eine mögliche Vermutung:
HDD1 wurde durch ominöse Dienste/NAS-Funktionen immer wieder kurz nachm SpinDown aufgeweckt. HDD2 war reines Datengrab und konnte somit ruhig pennen.
Oder aber es wurde ein bestimmtes RAID-Level verwendet, welches HDD1 durch Lesezugriffe aufweckte und HDD2 wurde nur bei Schreibzugriffen geweckt.

Spätestens wenn man so einen proprietären Mist wie Synology Hybrid Raid nutzt weiss man ja kaum noch was passiert :] auch wenns auf altbekannten Technologien wie LVM aufsetzt.

Einer der Gründe wieso ich lieber selbstgebaute NAS auf zB miniITX-Basis bevorzuge. Was nicht heißen soll, es gäb keine vernünftigen proprietären NAS oder der HDDfehler ist wirklich durch das NAS verursacht worden. Kann ja auch ganz einfach nur ne mistige HDD oder ein Controllerdefekt gewesen sein. Denn ein Spindown nach durchschnittlich 1 Minute 15s klingt absolut unlogisch. 3-5 Minuten sind doch die üblichen Timer gewesen, wenn ich mich nicht irre. Das wäre aber eher auf ~ 24200-40000 LoadCycles rausgelaufen, statt knappe 100000. Vielleicht war das Teil von werk aus fehlerhaft geflasht worden *noahnung*
 
Hallo!

Wenn ich diesen Thread lese sollte man (zurzeit) besser keine 2TB Platte kaufen. Oder liege ich da Falsch?

Weil ich mir nämlich eine 2TB Platte zulegen wollte. Oder wäre eine 1.5 TB besser?

Habt ihr irgendwelche vorschläge?

Vielen Dank schon mal.
 
Ist nicht wirklich ein Unterschied ...

Ich hab mit 640GB, 1TB, 1,5TB und Notebookplatten von 250-640GB auch schon Ausfälle gehabt. Gilt für alle Marken.

Aber 2TB werden eben oft gekauft wegen dem P/L und immer mehr stecken so was in Geräte die rund um die Uhr laufen. Ist aber bei guter Kühlung kein wirklicher Ausfallgrund.
 
Ist nicht wirklich ein Unterschied ...

Ich hab mit 640GB, 1TB, 1,5TB und Notebookplatten von 250-640GB auch schon Ausfälle gehabt. Gilt für alle Marken.

Aber 2TB werden eben oft gekauft wegen dem P/L und immer mehr stecken so was in Geräte die rund um die Uhr laufen. Ist aber bei guter Kühlung kein wirklicher Ausfallgrund.

Generell Falsch! Wie schon vor einer Weile an Reklamationsdaten bei Festplatten deutlich wurde, sind die Modelle mit höchster Datendichte pro Platter oder anderen erhöhten Leistungswerten fast immer ihren Vorgängern eine ganze Weile lang an Zuverlässigkeit unterlegen. Liegt einfach am typischen Entwicklungs- und Produktionsprozess.

Halbes Jahr alt, aber die Daten geben das typische Bild von mehreren Quartalen wieder:
http://www.planet3dnow.de/vbulletin/showthread.php?p=4339694#post4339694

Die 2TB hatten einen schweren Einstand und eigentlich sollten die Hersteller diese Probleme mittlerweile im Griff haben. Bei welchen Modellen das jedoch zutrifft weiss keiner so genau.

Jetzt, da die ersten 2.5 / 3 TB auftauchen, kann man wohl davon ausgehen. Aber ne ältere Charge würd ich nicht unbedingt nehmen, wenns um sensible Daten geht.
 
Zuletzt bearbeitet:
Mir sind aber auch mehr 5x00er als 7200er in den letzten jahren kaputt gegangen.

Statistik hin oder her, so siehts bei mir aus.

Oh, Bitte, dieser Franzosenlink wird überall gepostet und deckt sich nicht mit anderen Erfahrungen.
 
Jep, das mach ich auch sofort bei diversen HDDs
 
Der große Widerspruch bei dem Spaß ist halt, dass die WD-eigenen Spezifikationen für die GreenDesktop nur von 300000 LoadCycles für eine zuverlässige Datenintegrität ausgehen. Bei Enterpriselaufwerken bis zu 600000.
Wenn man nach 5 Monaten schon die 100000 beinah geknackt hat, ist es wohl mehr als fraglich ob so ein Laufwerk auch nach 2-4 Jahren eine vertretbare Datenintegrität gewährleistet.

Wie einige HDD-Hersteller jemals auf die Idee kamen, den LoadCycleTimer weit unter 5 Minuten zu drücken will mir nicht in den Kopf.

PS: Der Franzosenlink basiert auf über lange Zeiträume gesammelten Daten, sowas ziehe ich jederzeit UserErfahrungen vor, denn die posten zu 80% nur wenn sie Probleme haben. Aber die Diskussion fand schon an anderer Stelle statt und gehört hiernicht her.
 
Zuletzt bearbeitet:
Was wäre denn ein guter LoadCyleTimer?

Auf welchen Wert sollte ich den einstellen?

Danke
 
dass ältere Modelle weniger oft in der RMA landen kann auch mit den Preisen zu tun haben.Manche kaufen bei den Preisen einfach eine neue und sparen sich das RMA-Prozedere.

Vor einigen Wochen hatte sich meine Samsung F3 verabschiedet, also eingeschickt, nach 3 Wochen neue in der Hand gehabt und verbaut. Geprüft, alles ok. Gestern kam eine Meldung, die Samsung läge im sterben, Smart angeschaut und ein paar Fehler. Sogar 4 Erschütterungswarnungen, komischerweise haben die beiden WD von der Erschütterung nichts mitbekommen. Also soll ich jetzt die Samsung wieder einschicken? 3 Wochen warten, .... . Oder kauf ich mir nicht doch gleich eine andere. Bei Preisen ab 40 Euro fürs Terrabyte, ist doch schon das Porto (hin und zurück) fast die hälfte des Wertes.
 
Du bezahlst doch nur fürs Hinschicken, oder?

Der Zeit ist allerdings ein Faktor, da hast du Recht. Als meine F2EG 1,5TB starb habe ich auch gegrübelt, ob ich mir schnell eine andere hole, denn 1,5TB an Daten muß man erstmal irgendwo anders unterbringen.
 
Selbst wenn man sich gleich ne andere holt, die Defekte nicht in die RMA zu geben (was auch immer man mit dem Ersatzgerät macht) ist doch Geldvernichtung.
Bei Herstellern bekommt man meist kein Porto erstattet, aber schlaue Menschen regeln die RMA über den Händler und da ist bei großen Buden wie Alternate, HoH und Co. die Abwicklung kostenfrei. Je nach AGB verschickt man unfrei oder bekommt mit der RMA-Abwicklung einen Retourschein.
Das ist aber alles kein Thema hier eigentlich.

Ein guter LoadCycleTimer ... da gibt es eigentlich keinen für alle Systeme. Je nach verwendeten Diensten, Dateisystemen etc. kann sich das Optimum unterscheiden, jedoch find ich selbst 4-5 Minuten recht angemessen. Da hat man im WorstCaseszenario (HDD läuft ein ganzes Jahr ohne Pause durch und wird ständig sofort wieder aus dem Sleep gerissen) noch immer nur 100000 pro Jahr und bleibt somit für eine normale Lebensdauer (3-5 J) deutlich unter den Spezifikationen. Sehr wahrscheinlicher sind eher 10 Jahre+ bei einer solchen Konfig und normalen Systemen.

Viel wichtiger als den optimalen Timer zu finden ist jedoch die Dienste zu finden, die eine HDD unnötigerweise aus dem Sleep holen oder verhindern, dass sie in den sleep gehen. Garstiges Logging, falsch konfigurierte Dateisystemjournals usw.

Bei proprietären NAS hat man es natürlich deutlich schwerer auf sowas Einfluß zu nehmen. Selbst wenn die HDD also getauscht wird nun und auf 4 Minuten geflasht wird, kann noch immer irgendein Prozess die HDD ständig wieder aufwecken nach dem SpinDown. Man hat nur die Auswirkungen dieses Fehlverhaltens reduziert, jedoch noch immer nicht den positiven Effekt des SpinDowns.
 
Man hat nur die Auswirkungen dieses Fehlverhaltens reduziert, jedoch noch immer nicht den positiven Effekt des SpinDowns.
Ich mag mich irren, aber seitdem man Ramp Loading verwendet, gibt es keinen Spin Down mehr. Es werden lediglich die Schreib/Leseköpfe geparkt.

Und das ist ein nahezu verschleißfreier Vorgang. Es dauert eben nur ein paar Millisekunden die Festplatte aus diesem Zustand zu wecken.

Für das verschleißträchtigere Abbremsen oder Anhalten des Spindelmotors sind anderer Timer verantwortlich. Ich glaube das tut die HDD nie in Eigenregie.
 
Ich mag mich irren, aber seitdem man Ramp Loading verwendet, gibt es keinen Spin Down mehr. Es werden lediglich die Schreib/Leseköpfe geparkt.

Und das ist ein nahezu verschleißfreier Vorgang. Es dauert eben nur ein paar Millisekunden die Festplatte aus diesem Zustand zu wecken.

Für das verschleißträchtigere Abbremsen oder Anhalten des Spindelmotors sind anderer Timer verantwortlich. Ich glaube das tut die HDD nie in Eigenregie.

Jain, nicht jeder Ramp Load bedeutet ein SpinDown, aber ein LoadCycle zählt ja auch nicht beim Ramp loading hoch!

All meine 1-2TB Green Modelle (Samsung, Hitachi) und meine WD Velos verstehen unter loadCycle einen Spindown. Ich nehme dreist an, das kein Hersteller davon abweicht.
Verschleißfrei ist da kaum was, nicht ohne Grund hat auch WD trotz dieser dollen Technik noch Obergrenzen für zuverlässige Datenintegrität in den Spezifikation (variieren von Green zu Enterprise um bis zu 100%)

SpinDown passiert in Eigenregie, kann aber vom Dateisystem gesteuert werden. Einige Maxtor und Seagate der jüngeren Vergangenheit haben aber diese Steuerbefehle unter Linux sogar schon ignoriert und man konnte in dem Falle den SpinDown nur mit Lese/Schreibzugriffen verhindern, bzw. auf ein HDDtool hoffen um den wert direkt zu ändern.
 
Neue HDD dürfte nächste Woche eintreffen und wird sofort mit WDIDLE bearbeitet.
Genauso wie die andere auch.

Konfiguration ist ein einfaches RAID 1. Sobald sich das ganze mit der alten + neuen HDD wieder eingespielt hat, werd ich die SMART Werte länger beobachten um da "sicherzugehen".
 
Zurück
Oben Unten