News Hardware: Zuverlässigkeit in Zahlen - Selten, nie komplett aber hoch interessant!

User-News

Von yourgreatestfear

Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.
Zweimal im Jahr versucht hardware.fr mit Hilfe von Daten eines französischen Onlinehändlers einen Trend aus Garantieabwicklungen herauszulesen. Und dabei ist man sich durchaus bewusst, dass die Zahlen mit Vorsicht zu genießen sind und geht sehr sachlich damit um.

Für Sprachbegabte der aktuelle Originalarktikel
(französisch): hardware.fr
Meist folgt eine Übersetzung auf der Partnerseite behardware.com (englisch). Derzeit noch nicht zu finden, deswegen nur der Link zum Frühjahresbericht: behardware.com

Golem.de versuchts aktuell in Deutsch zu kommentieren, unverständlicherweise nur was Plattenspeicher betrifft und weniger sachlich: Golem
(mit Vorsicht zu genießen)

Wer kennt das nicht: Neue Hardware soll gekauft werden und man sucht begierig nach dem Besten. Um die beste Leistung zu finden liest man stundenlang ausführliche Reviews und wälzt Vergleiche von Spezifikationen. Für die Suche nach dem besten Preis hilft einem ein halbes Dutzend Suchmaschinen. Aber wenn einem Zuverlässigkeit am Herzen liegt, dann steht man schnell blöd da. Käufermeinungen sind wenig hilfreich, da meist nur Inkompetenz, Wut über den Ausfall oder der Fanboy rauszulesen ist und 2-10 Bewertungen noch keinen Trend machen. Hilflos fragt man im Forum nach und bekommt in den ersten 5 Antworten mindestens 6 verschiedene Meinungen.

Was kann man aber von den wenigen Zahlen mitnehmen?
Weisheiten, die eigentlich auch ohne Zahlen schon lange klar sein sollten, aber dank Marketing, Fanboys und übertrieben/einseitigen positiven/negativen Bewertungen schwer zu vermitteln sind:
- Es gibt gute Hersteller und weniger gute. Leider heisst gut nicht selten auch teuer und aller paar Jahre sollte man seine Einstellung gegenüber bestimmter Marken neu prüfen.
- Auch der beste Hersteller kann eine Produktserie haben, die selbst den miesesten Hersteller gut aussehen lässt.
- Neue Technologien bedeuten leider höheres Ausfallrisiko.
- Schnell/Mehr bedeutet höheres Risiko, egal ob Taktrate, Umdrehungen, Zugriffszeiten, Features, etc.

Wenn also mal wieder jemand dazu rät eine ältere/kleine/langsame/teurere Festplatte statt des aktuellen Preis/Leistungsschlagers zu kaufen, dann sollte man zweimal überlegen, ob es nur ein Depp ist oder ob da nicht mehr dahinter steckt. ;)
 
Seite übersetzt:

via google auf englisch und deutsch (meist ist die englische Übersetzung besser)
und das ganze noch via Bing: deutsch und englisch
 
Danke für die Verlinkung zu den Übersetzern. Ich find die immer grausam, aber für so trockene Zahlen reichts allemal. Wie gesagt wird wohl in Kürze auf der Partnerseite vom Autor selbst nochmal in Englisch platziert.

Schade das man so selten von den Händlern solche Statistiken bekommt, beziehungsweise die Garantieabwicklung direkt beim Hersteller umfassende Erhebungen unmöglich macht. Gerade Schwergewichte wie Alternate könnten jedoch so manches Image einer Marke vernichten oder pushen. Aber wegen der Werbeverträge und Margen wird sich das wohl kein Händler trauen :]
 
Ich weis, die Übersetzungen sind nicht das gelbe vom Ei. Aber mit ein wenig Phantasie kann man verstehen, was gemeint ist ^^.


Die Berichte von hardware.fr lese ich regelmäßig. Die machen ja gerne mal so enorme Tests wie 89 Grafikkarten im Vergleich (link) oder 168 Prozessoren (link). Auf deutschen oder englischen Seiten gibt es nichts vergleichbares.
 
Ich bin etwas über die Ausfallwahrscheinlichkeiten von Festplatten entsetzt. Bei MTBFs von mindestens 100000h kommen mir Werte zwischen 1,04% und 3,39% doch recht hoch vor.

Klar wird die MTBF unter Laborbedingungen ermittelt, aber @ Home laufen die doch bei den wenigsten dauernd durch *noahnung*
 
Eben das ist das Problem bei Festplatten im Heimanwenderbereich. Je öfter die an/ausgeschalten werden desto schlimmer. Idle-SpinDown und das häufige An-/Ausschalten mag zwar gut gegen Lärm und hohe Stromrechnungen sein, ist aber ungesund für die Elektronik/Mechanik. Die maximalen Load Cycles sind für den Privatanwender eigentlich der wichtigere Anhaltspunkt für eine langlebige HDD. Und so einige HDD haben da wirklich schnell die angegebenen Werte erreicht.

Dazu kommt noch, dass in die Statistik auch die Menge an Platten mit einfließt, die in externen Gehäusen zu tote gequält werden.

PS: Hast übrigens eine Null vergessen, üblicherweise liegt die MTBF von Desktopplatten bei über einer Mille. Und die 1-3% sind schöne Durchschnittswerte über die gesamte Produktpalette hinweg. Da einige Serien locker auch mal 6-10% Ausfall hatten, müsste eigentlich auch dem Letzten das Licht aufgehen, das HDD keine sicheren Speichermedien sind.
 
UNglaublich schade das dort BeQuiet fehlt.
 
Die Zahlen stammen von EINEM französischen Großhändler aus EINEM Jahr!
Statisch gesehen dürften sie weltweit betrachtet damit in ihrer Relevanz gegen Null tendieren...
 
Der Author selbst erwähnt es sehr deutlich.
Aber
1. Die Berichte kommen 2 mal im Jahr. Die ersten Daten stammen aus 2008 und man hofft das über einen langen Zeitraum machen zu können.
2. Es gibt so gut wie keine glaubhaften Zahlen zu dem Thema, womit jegliche sachliche Andeutung zu dem Thema schon hilfreich wird!
3. Für die Bewertung eines einzelnes Produkt müssen mindestens 100 verkauft worden sein. Bei der Herstellerwertung mindestens 500. Damit ist die Aussagekraft um ein vielfaches größer als die Produktbewertungen auf den üblichen Seiten, da diese sich nichtmal auf Ausfall beschränken, sondern total frei in der Begründung sind.

Bsp. 1TB+ HDD:
Wenn Dir ein Händler sagt, die Platte A kam nur einmal aus 100 nicht funktionstüchtig zurück, jedoch die Platte B 10 mal, dann erzähl mir nicht, das 5-10 Euro Unterschied Deine Kaufentscheidung mehr beeinflussen ;).

Natürlich wär es wünschenswert aus mehr Quellen Daten dazu zu erhalten, aber offensichtlich ist es ein Ding der Unmöglichkeit.

@P3DNow:
Ihr könnt ja mal eine Anfrage an Händler wie Alternate stellen. Versprecht die Quellen zu verschweigen bei Veröffentlichunng und nur reine Quoten zu veröffentlichen. Ich gehe jede Wette ein, dann wird man kaum positive Antworten bekommen. Zum einen weil selbst in so kleinem Umfang derartige Daten Gold wert sind. Zum anderen risikiert man den Absatz an eigentlich miesen Produkten die nur durch gutes Image und hohe Leistungsdaten sich verkaufen und somit i.d.R. mit hohen Margen dem Händler Gewinn bringen. Bzw. macht man ja ausschließlich die Ungereihmtheiten des eigenen Angebotes öffentlich und riskiert in jedem Falle den Absatz wegen des eventuellen Trugschlußes, dass die nicht erwähnten Marken besser sein könnten.
 
Ich beherrsche kein Französisch, aber ich denke die Händler-Statistik hat noch einen ganz anderen und darüber hinaus nicht unwesentlichen Haken.

Schließlich ist in Frankreich neben der 99/44/EG (Verbrauchsgüterkaufrichtlinie) auch die 97/7/EG (Fernabsatzrichtlinie) umsetzungsbedürftig.

Das heißt die Statistik wird nur Fälle der Nacherfüllung erfassen und keine Fälle bei denen die Ware ohne Angabe von Gründen zurückgeschickt wird.
 
...

Das heißt die Statistik wird nur Fälle der Nacherfüllung erfassen und keine Fälle bei denen die Ware ohne Angabe von Gründen zurückgeschickt wird.

Der Umstand, dass man in Frankreich schwerer zurücksenden kann, nur weil einem der Kram nicht gefällt, ist in meinen Augen positiv anzusehen. Schließlich geht es um Komplettausfallraten und technische Defekte, nicht um 'zu blöd Einzubauen'. Der Autor sagt es geht wirklich um defekte Ware. Ich nehme also an, die Daten kennen den Unterschied zwischen falsch versendet und defekt.
 
Soviel strenger werden die Anforderungen in Frankreich nicht sein. Die Richtlinie hat schon ein recht hohes Schutzniveau:

Art. 6 I 97/7/EG (Volltext)
Der Verbraucher kann jeden Vertragsabschluß im Fernabsatz innerhalb einer Frist von mindestens sieben Werktagen ohne Angabe von Gründen und ohne Strafzahlung widerrufen. Die einzigen Kosten, die dem Verbraucher infolge der Ausübung seines Widerrufsrechts auferlegt werden können, sind die unmittelbaren Kosten der Rücksendung der Waren.
Die Sieben-Tages-Frist kann Frankreich nicht unterschreiten, sondern sie nur verlängern, so wie Deutschland es getan hat.

Und wie der französische Gesetzgeber bei den Rücksendekosten entschieden hat, ändert dann auch nicht mehr viel...
 
Wer sich für die Zusammenhänge zwischen Ausfallraten und MTBF bzw. MTTF interessiert, sollte sich mal folgendes Paper durchlesen.

Der Hauptgrund, warum die Herstellerangaben (MTTF/MTBF) und die subjektiven Eindrücke der meisten nicht zusammenpassen, liegt einfach in der Art begründet, wie die Werte zustande kommen. Da werden z.B. 1000 Festplatten über 1000h getestet. Wenn dann eine ausfällt, ergibt sich daraus 1000 Stück * 1000h = 1.000.000h MTTF. Die Hersteller gehen dann einfach davon aus, dass die Fehlerrate wie im "Badewannen"-Modell für eine gewisse Zeit (so in etwa die Garantiezeit) relativ konstant bleibt.

In dem Paper haben sie das genauer Untersucht und festgestellt, dass die Ausfallrate eher einer exponentielle Kurve als einer Badewannenkurve gleicht und damit die Werte der Hersteller allenfalls für das erste Jahr stimmen. Interessant fand ich auch, dass es keine signifikanten Unterschiede in der Haltbarkeit zwischen typischen Server-Festplatten und Desktop-Festplatten gab.
 
... Interessant fand ich auch, dass es keine signifikanten Unterschiede in der Haltbarkeit zwischen typischen Server-Festplatten und Desktop-Festplatten gab.

Wie kommt Deinerein auf diese Weisheit?
Die Daten stammen aus 3 Clustersystemen von Supercomputern, 3 Clustersystemen von ISP und einem Cluster Supercomputer+Commercial Use. In dem Paper wird deine Aussage in keinster Weise getroffen, nur zwischen Schnittstellen wird kein nennenswerter Unterschied erkannt, vielmehr wird vermutet das die Art der Verwendung den größten Einfluß auf Ausfallwahrscheinlichkeit hat. Dies würde wiederum bedeuten, dass sehr deutliche Unterschiede zwischen Serverhardware und Desktop zu erwarten sind. Allgemein bezweifle ich, dass überhaupt eine zu erwähnende Anzahl an Desktopplatten in diesen Systemen zu finden war.

Völlig unabhängig davon sollte man auch bedenken, dass Serverplatten egal ob SATA, SAS oder SCSI-Kandidaten viel niedrigere Threshholds bei deutlich höheren durchschnittlichen Betriebsstunden haben und schon als Bad Disks gelten, wenn die Desktopplatte noch locker ein halbes Jahr lang Sektoren reallokieren oder Loadcycles hochzählen würde. Wenn da 5 aus 100 Platten kein Jahr überleben kann man es noch lang nicht gleichsetzen mit 5 aus 100/Jahr bei Desktopplatten.
 
Wie kommt Deinerein auf diese Weisheit?
Die Daten stammen aus 3 Clustersystemen von Supercomputern, 3 Clustersystemen von ISP und einem Cluster Supercomputer+Commercial Use. In dem Paper wird deine Aussage in keinster Weise getroffen, nur zwischen Schnittstellen wird kein nennenswerter Unterschied erkannt, vielmehr wird vermutet das die Art der Verwendung den größten Einfluß auf Ausfallwahrscheinlichkeit hat. Dies würde wiederum bedeuten, dass sehr deutliche Unterschiede zwischen Serverhardware und Desktop zu erwarten sind. Allgemein bezweifle ich, dass überhaupt eine zu erwähnende Anzahl an Desktopplatten in diesen Systemen zu finden war.

Da hast du recht, es wurden tatsächlich keine herkömmlichen Desktop-Platten mit einbezogen. Allerdings sind z.B. SATA Platten, die für Server "freigegeben" sind meist aus den gleichen Produktlinien wie die normalen Desktop-Platten. Unterschiede gibt es höchstens bei der Firmware, den Garantiebedingungen und dem Preis. Google benutzt ja z.B. auch nur "consumer-grade hard disk drives".
 
Da hast du recht, es wurden tatsächlich keine herkömmlichen Desktop-Platten mit einbezogen. Allerdings sind z.B. SATA Platten, die für Server "freigegeben" sind meist aus den gleichen Produktlinien wie die normalen Desktop-Platten. Unterschiede gibt es höchstens bei der Firmware, den Garantiebedingungen und dem Preis. Google benutzt ja z.B. auch nur "consumer-grade hard disk drives".

Wow, ganz und gar nicht. Entweder der Hersteller verzichtet ganz auf eine SATA-Enterpriseserie (Samsung spielt da glaub ich gar nicht mit) oder man hat wirklich eigens dafür entwickelte Laufwerke/ rüstet SAS um.
WD z.B. hat bei der RE-Reihe deutliche technische Unterschiede zu ihren Desktopserien. Hier wird vorsätzlich Transferrate geopfert und Wert auf hohe IOPS-Performance, Zugriffszeiten und Performance/Watt optimiert gebaut.
Und auch bei anderen Marken sind die EnterpriseSATA-Laufwerke keine umgelabelten Desktopplatten mit anderer Firmware. Deutlich wird das an den signifikanten Unterschieden bei Kapazitäten, Zugriffszeiten, Formfaktor, etc.
 
Und auch bei anderen Marken sind die EnterpriseSATA-Laufwerke keine umgelabelten Desktopplatten mit anderer Firmware.
Doch, das kommt immer wieder vor. Bei Hitachi stimmt die mechanische Baugruppe zwischen Deskstar 7K2000 und Ultrastar A7K1000 zu 100% überein.
 
Oh mei, ich vergass den Reinfall bei Hitachi, da war nicht nur mechanisch alles gleich. Nehme also die Verallgemeinerung zurück. Der Übergang zwischen Enterprise zu Desktop ist je nach Hersteller fließend, von umgelabelt (und per Firmware sichergestellt) bis hin zu eigenständigem Produkt ist alles dabei.

Das mit den Hitachi war schon richtig dreist, vor allem weil die irgendwann mal dieses witzige 2-Seitenpaper mit direktem Serienvergleich verschickt haben indem nix anderes stand "zahl extra und wir testen unseren Mist für Dich auch". Wollt jetzt nicht erst im Postfach suchen, aber kann mich errinnern, dass man bei der Deskstar einfach aufs Rating verzichtete in Kernpunkten und bei der Ultrastar behauptet mehr Tests zu fahren, nachdem man die vom selben Fließband nimmt. :]
 
Naja, die WD Caviar Black sollen ja auch sehr ähnlich zu den RE Platten sein. Nur haben sie kein aktiviertes TLER (time limited error recovery). Somit denke ich, dass sehr viele Serverplatten große Ähnlichkeit zu ihren Consumerkollegen haben.

MfG
 
Ich bin etwas über die Ausfallwahrscheinlichkeiten von Festplatten entsetzt. Bei MTBFs von mindestens 100000h kommen mir Werte zwischen 1,04% und 3,39% doch recht hoch vor.

Klar wird die MTBF unter Laborbedingungen ermittelt, aber @ Home laufen die doch bei den wenigsten dauernd durch *noahnung*

So weit ich das in Erinnerung habe ist alles <3% als "normal" zu betrachten und nicht als besonders hoch.

War nicht bei der Xbox ~30% Ausfrallrate zu verzeichen?!
.
EDIT :
.

UNglaublich schade das dort BeQuiet fehlt.

Unterschrieb. Alle fünf BQ hatten mindestens einen Lüfterschaden, zwei sind spektakulär abgeraucht.
 
Ich bin etwas über die Ausfallwahrscheinlichkeiten von Festplatten entsetzt. Bei MTBFs von mindestens 100000h kommen mir Werte zwischen 1,04% und 3,39% doch recht hoch vor.

Klar wird die MTBF unter Laborbedingungen ermittelt, aber @ Home laufen die doch bei den wenigsten dauernd durch *noahnung*

@Home werden die aber auch von den wenigsten Usern so artgerecht behandelt wie uns das in Fleisch und Blut übergegangen ist.

Gerade letzte Woche erlebt. $Bruder tauscht nen DVD-Brenner. Also Rechner ausschalten, aufm....geht nicht, ist ja links kein Platz. Also wird das Ding vorgerubbelt. Mit Beschleunigungswerten im HD-Käfig die jenseits von gut und böse liegen und natürlich ohne zu warten bis die Platte wirklich sicher still steht. $Bruder sollte es besser wissen, aber bei $Handwerker oder Manni Manta dürfte die Behandlung kaum zimperlicher ausfallen.

Meine letzte defekte Platte war vor ca. 10 Jahren. Von jetzt auf gleich tot.
 
da diese statistischen angaben auch schon mal an anderer stelle im forum diskutiert wurden, kann ich hier nur darauf hinweisen, dass die relativen ausfallraten ohne bezug zu absoluten größen relativ sinnlos sind.

im prinzip genauso sinnlos, aber immerhin beschäftigt sich ein datenretter auch mit den ausfall-ursachen.

http://www.tomshardware.de/Festplatten-Lebensdauer,testberichte-240582.html

sinnvoll wäre, wenn solche statistiken mal zusammengeführt werden könnten. aber derartige zahlen wird man nur von den herstellern selber bekommen. und die werden einen teufel tun, sowas zu veröffentlichen.

PS: Hast übrigens eine Null vergessen, üblicherweise liegt die MTBF von Desktopplatten bei über einer Mille.
üblicherweise geben die relevanten hersteller seit jahren im desktop-bereich keine mtbf mehr an, sondern spezifizieren eine annual return rate, annual failure rate oder non recoverable (read) error rate.

Das mit den Hitachi war schon richtig dreist, vor allem weil die irgendwann mal dieses witzige 2-Seitenpaper mit direktem Serienvergleich verschickt haben indem nix anderes stand "zahl extra und wir testen unseren Mist für Dich auch". Wollt jetzt nicht erst im Postfach suchen, aber kann mich errinnern, dass man bei der Deskstar einfach aufs Rating verzichtete in Kernpunkten und bei der Ultrastar behauptet mehr Tests zu fahren, nachdem man die vom selben Fließband nimmt. :]
das ist das gleiche prinzip, mit dem damals maxtor mit seiner maxline serie angefangen hat. angeblich sorgfältiger getestete komponenten, eine pseudo 24/7 tauglichkeit (da nur auf low duty ausgelegt) sowie eine längere garantie. das haben im laufe der jahre alle hersteller von seagate, samsung bis hin zu wd mehr oder weniger nachgeahmt. hitachi war bei diesem werbegag der letzte hersteller, der da mitgemacht hat.

Der Hauptgrund, warum die Herstellerangaben (MTTF/MTBF) und die subjektiven Eindrücke der meisten nicht zusammenpassen, liegt einfach in der Art begründet, wie die Werte zustande kommen. Da werden z.B. 1000 Festplatten über 1000h getestet. Wenn dann eine ausfällt, ergibt sich daraus 1000 Stück * 1000h = 1.000.000h MTTF. Die Hersteller gehen dann einfach davon aus, dass die Fehlerrate wie im "Badewannen"-Modell für eine gewisse Zeit (so in etwa die Garantiezeit) relativ konstant bleibt.
unabhängig davon, welche hersteller-angaben man heranzieht, dürfte ein grund darin liegen, dass die tests der hersteller auf basis konstanter umgebungsbedingungen (temperatur, luftfeuchtigkeit, luftdruck usw.) durchgeführt werden, die nicht überall auf diesem planeten anzutreffen sind. das fängt schon damit an, dass externe festplatten ganz anderen bedingungen ausgesetzt sind wie interne.
 
Zurück
Oben Unten