Seagate ST1000DM003 Gelöst

Fehler Gefunden es ist der usb Kartenleser so bald er in stromsparend mod geht knackt auch kurz die hdd und PC stürzt ab.
nur durch Zufall habe gesehen beim Absturz das die LED vom Kartenleser an und aus geht.
 
Ha, meine 3. ST3000DM001 stirbt. :)
3/4 damit tot.


 
bin jetzt auch am überlegen eine 3tb zu kaufen aber denke es wird eine WD werden
 
16000 Stunden sind jetzt eig net soviel. Meine 1TB hat knapp 15000 runter und sieht noch topfit aus. Montagsmodelle erwischt?
 
Ich habe generell den Eindruck, dass besonders 3TB Platten viel schlechter punkto Zuverlässigkeit da stehen als 2 oder 4TB Platten.
Das war auch bei den 1,5TB Platten so.
 
Das gibt mir jetzt ein bisschen zu denken. Hab im Server noch 2x 3TB.
 
Naja, P/L-mäßig würden sich ja eigentlich die Seagate ST8000AS0002 (8 TB für ~250,- Euro) für ein Datengrab anbieten.
 
Ja, meine 2. Kommt morgen. wobei das schon ein komisches Gefühl ist nach dem Ausfall von 3 von 4 Seagate Festplatten wieder in zwei neue Seagate zu investieren.
 
wie sich die zeiten ändern. wie ist ibm damals dafür verprügelt worden, als sie die 333 power-on hours pro monat offiziell ins datenblatt geschrieben haben.

dabei hatte seagate das auch mal in seiner produktmatrix drin stehen, allerdings einen deutlich geringeren wert (8 power-on hours pro tag). und haben es nach der ibm-schelte fluchs wieder entsorgt, scheinbar weil man ein ähnlich negatives feedback fürchetete wie im falle von ibm.

also sind wir heute nun bei 6,5 std. angekommen. und sie veröffentlichen es auch noch ganz ehrlich in den specs. und niemand regt sich mehr auf.

Quelle : c't ausgabe 1/2002 - seite 135 - ide contra scsi

Die Berechnungsverfahren und Korrekturfaktoren variieren von Hersteller zu Hersteller. Die MTBF-Angaben verschiedener Hersteller kann man daher nicht direkt miteinander vergleichen, selbst wenn man davon ausgeht, dass sie jeweils auf ehrlichen Tests beruhen und nicht zu Marketingzwecken schöngerechnet wurden. Die MTBF als isolierter Wert sagt also ziemlich wenig aus, wenn man nicht die zugrunde liegenden Annahmen über die Betriebsbedingungen kennt.

IBMs Schuss ins Knie

Für die Firma IBM ging die Offenlegung ihrer Berechnungsgrundlagen Anfang 2002 ziemlich nach hinten los. In den Datenblättern zur Deskstar-120GXP-Familie stand im Abschnitt Zuverlässigkeit zu lesen: 'Recommended power-on-hours (monthly): 333'. Darüber erhitzten sich die Gemüter in den Diskussionsforen dieser Welt: IBM-Platten sind nicht für den Dauerbetrieb geeignet und gehen kaputt, wenn man sie mehr als 11 Stunden am Tag laufen läßt, so die voreilige Schlussfolgerung. IBM beeilte sich daraufhin zu bekräftigen, dass man die Deskstar 120GXP sehr wohl rund um die Uhr laufen lassen könne und die (damals) dreijährige Garantie unabhängig von der Betriebsstundenzahl gelte. Die entsprechende Zeile wurde inzwischen aus den veröffentlichten Datenblättern gestrichen, da sie 'zu Missverständnissen geführt hat'. Schade, denn nur so könnte man nachvollziehen, wie die (vorsichtshalber nicht veröffentlichte) MTBF-Angabe von über 800000 Stunden zustande kommt. IBM rechnet dabei übrigens mit einer Umgebungstemperatur von 40°c, was für das Innere eines PC-Gehäuses eher die Obergrenze ist. Seagate geht für die MTBF-Berechnung dagegen sehr optimistisch von 25°c aus und spezifiziert für aktuelle Desktop-Platten 600000 Stunden.
 
Das sind eben immer die Folgen wenn sich Idioten in Foren über Dinge aufregen von denen sie leider gar keine Ahnung haben: Die Hersteller geben wichtige Angeben nicht mehr weiter! Deshalb steht auf der Folie der Daten von Toshibas 3.5" HDD Baureihen unten auch rot Confidential.

attachment.php


Dabei war der Workload, der ebenfalls in rot hervorgehoben ist zu den Zeiten als IBM noch HDDs gebaut hat, noch gar nicht mal ein Thema, damals waren die Datendichten noch so gering, da konnte man den Köpfen noch reichlich Abstand gönnen und musste nicht im Teilkontaktbereich arbeiten wie es heute der Fall ist.

Seagate ist übrigens noch der Hersteller der am meisten Informationen solcher Art preisgibt, die anderen mauern noch mehr.
 
16000 Stunden und nur 119 Einschaltvorgänge, dafür ist diese HDD nicht gemacht, steht auch im Datenblatt: Das ist aufs Jahr bezogen:
16000/2400 = 6,667, hat hat also die Betreibsstunden für über 6 Jahre Nutzung wie vorgesehen runter, daher ist es kein Wunder, dass sie nun so langsam den Geist aufgribt. Nimm für Dauerbetrieb eine Platte die dafür auch vorgesehen ist, die kosten zwar mehr, vertragen aber auch mehr. Es gilt immer noch: You get what you pay for!

Nerv' jemand anderen. Ich war mir bewusst, dass ich Dauerlauf nicht so gerne gesehn ist. Wobei normalerweise Volllast die Geräte schlimmer abnützen sollte.

2400 Stunden pro Jahr... das ist ja wie ne Kaffeemaschnine für 10 Tassen im Monat. Da gehört einfach der Hersteller geschlagen. Für solche geringen Laufleisten kann kein Vollpreis verlangt werden.
 
Dauerlast ist noch was anderes als nur Dauerbetrieb, die Dauerlast dürfen nur wenige HDDs wie die Nearline Enterprise HDDs haben, also die mit 550TB/Jahr Workload. Die anderen vertragen das auch nicht so gut. Und was heißt nicht gerne gesehen, die HDDs haben bei Überbeanspruchung eben eine kurze Lebensdauer, das muss man eben wissen und bei der Kaufentscheidung berücksichtigen.
 
Ha, meine 3. ST3000DM001 stirbt. :)
3/4 damit tot.



Meine zwei ST2000DM001 mit knapp 20.000 Std. haben bisher nur bei einer Platte einen defekten Sektor, welcher vor ca. einem Jahr aufgetreten war. Das Kabel war locker oder etwas ähnliches.


Ich bin auch ein Verfechter, dass je mehr Plattern eine HDD hat die Ausfall Wahrscheinlichkeit steigt. Mehr Masse, höhere Strömungswiderstand, mehr Schwingungen etc. erzeugen eine höhere Motorbelastung, höhere Temperatur etc. und auch die Stoßempfindlichkeit sinkt idR weil die Schreib-/Leseköpfe und Plattern näher beieinander sind.
 
Vor allem lockere Stromkabel können schon schwebende Sektoren erzeugen, wenn dadurch beim Schreiben der Strom ausfällt und die Daten dann nicht zur der ECC des Sektors passen. Beim nächsten Überschreiben sollte der schwebende Sektor dann aber verschwinden.
 
und auch die Stoßempfindlichkeit sinkt idR weil die Schreib-/Leseköpfe und Plattern näher beieinander sind.
was hat das mit der platter-anzahl zu tun? die flughöhen gehen doch eh richtung 0 (<=3nm) und afaik (wie Holt bereits geschrieben hat) bereits im teilkontaktbereich (so lange die slider vom luftpolster getragen werden).

Ich bin auch ein Verfechter, dass je mehr Plattern eine HDD hat die Ausfall Wahrscheinlichkeit steigt.
dafür werden in der regel zumindest bei nearline-produkten auch entsprechende sicherungen eingesetzt, die man bei single-platter-modellen in der form meistens nicht antrifft.
 
Für Dauerbetrieb benötigt es ensprechend langlebige/höherwertige Lager und Motorkomponenten.
2400 Stunden/Jahr ist in der Tat ein schlechter Witz, selbst für ein Desktoplaufwerk.
 
was hat das mit der platter-anzahl zu tun? die flughöhen gehen doch eh richtung 0 (<=3nm) und afaik (wie Holt bereits geschrieben hat) bereits im teilkontaktbereich (so lange die slider vom luftpolster getragen werden).

Mehr Lesearme die an einer Aufhängung hängen, höhere Temps & Schwankungen (>Material Ausdehnung) , mehr Vibrationen, Lesearm hat weniger Luft nach oben zum anderen Lesearm. Ich kann mich doch daran erinnern, dass ein Hersteller für ein neues HDD Modell mit einem Plattern mehr die Stoßempfindlichkeit höher spezifiziert hatte.

dafür werden in der regel zumindest bei nearline-produkten auch entsprechende sicherungen eingesetzt, die man bei single-platter-modellen in der form meistens nicht antrifft.

Wenn es nicht so wäre warum bieten die HDD Hersteller erst jetzt wieder Platten mir bis zu sechs Plattern an? Derzeit stehen die HDD Hersteller an der Wand, SSD gibt es inzwischen bis 2TB, 16TB Modell sind Quasi angekündigt und HARM-Produkte sind bisher nicht in Sicht.
Damit bliebe nur noch der Preisvorteil der HDDs und der wird wohl in ein paar Jahren auch fallen.

Sie hatte früher mal mehr (4 bis 5) dann wurde sich auch idR drei Beschränkt IBM/Hitachi vier. Wenn die Anzahl der Plattern keinen Einfluss hätten warum dann Helium?
Klar kann ich durch bessere Motoren, Antivibations- und Kühlmaßnahem usw. das Risiko reduzieren, allerdings steigen die Kosten. Da dort gern gespart wird...
 
Wenn die Anzahl der Plattern keinen Einfluss hätten warum dann Helium?
weil hgst durch die verwendung von helium mehr platter in ein standard-3,5zoll-gehäuse quetschen kann. war man bisher auf 5 datenscheiben beschränkt, sind in den helium-modellen 7 verbaut. in einer zeit, wo aufgrund physikalischer grenzen (pmr ist ausgelutscht, flüghöhen lassen sich auch nicht mehr reduzieren und die köpfe lassen sich nicht beliebig verkleinern) weitere kapazitätssteigerungen immer schwieriger werden und nachfolge-aufzeichnungsverfahren wie hamr seit jahren auf sich warten lassen, klammern sich die hersteller halt an jeden strohhalm wie eben helium oder smr.

Wenn es nicht so wäre warum bieten die HDD Hersteller erst jetzt wieder Platten mir bis zu sechs Plattern an?
in luft-befüllten standard-gehäusen war das technisch mögliche bislang eine anzahl von 5 datenscheiben. mehr sind erst seit verwendung von helium anzutreffen.

Sie hatte früher mal mehr (4 bis 5) dann wurde sich auch idR drei Beschränkt IBM/Hitachi vier.
kann man so pauschal nicht sagen, gerade bei neuen modellen, mit denen die hersteller neue kapazitätsrekorde aufgestellt haben, hat man über die jahre immer wieder 5 datenscheiben verbaut.

deskstar 7k400 = 5 platters
deskstar 7k500 = 5 platters
deskstar 7k1000 = 5 platters
deskstar 7k2000 = 5 platters
deskstar 7k3000 = 5 platters
deskstar 7k4000 = 5 platters

so ähnlich lief das auch bei western digital, seagate war da in der regel etwas vorsichtiger und afair meistens maximal 3 bis 4 platters für seine top-modelle verbaut, dafür dann meist gleich mit höheren datendichten.

Klar kann ich durch bessere Motoren, Antivibations- und Kühlmaßnahem usw. das Risiko reduzieren, allerdings steigen die Kosten. Da dort gern gespart wird...
schau dir mal an, welche modelle die höchsten preise erzielen. und gerade die höchsten kapazitäten zielen schon seit einer weile nicht mehr auf den preis-sensitiven markt der privat-anwendern.


btw, ich kann mich dunkel daran erinnern, dass wir diese diskussion vor einigen jahren schon mal so oder so ähnlich geführt haben. ;)
 
Zurück
Oben Unten