Solid State Drive (SSD) - Sammelthread

Status
Für weitere Antworten geschlossen.
[...]

Bei konventionellen Festplatten stagnierts doch eher seit Jahren. Immer mehr Platter , immer langsamer Kapazitätsgewinn, keine nennbare Steigerung der Datentransferleistung oder Antwortzeiten trotz NCQ, 15.000 UPM, 2.5" Velociraptoren, etc etc.

Ich verstehe durchaus, was du meinst. Die Aussage zu den Platters ist jedoch Nonsens. *noahnung*

Vor neun Jahres gab es HDDs, die es mit zwei Datenscheiben auf eine Kapazität von 80 GB (Hitachi Travelstar 80GN) oder mit drei Scheiben auf 120 GB (IBM Deskstar 120GXP) brachten. Beide Modellreihen sollen nur beispielhaft den Stand der Technik von vor etwa einer Dekade verdeutlichen. Heute gibt es schicke Festplatten, die 1000 GB auf einem Platter unterbringen.

Wo siehst du den Trend zu "immer mehr Platters"?
 
Zuletzt bearbeitet:
Es gab schon genug HDDs mit 4 oder 5 Plattern und welche Probleme das verursacht hat kann man überall nachlesen.

Ja, zum Glück sind einige Hersteller wieder etwas zurückgerudert, aber die 4 TB Hdd hat auch schon wieder 4-5 Plattern... Und dass die sicher nicht sehr zuverlässig arbeiten hat sich früher schon gezeigt.
 
Vollkommen richtig. Vier oder fünf Platters in einem Laufwerk (Deskstar 7K1000, 7K500, 7K400 sowie Modellserien anderer Hersteller) gab es auch schon vor mehreren Jahren. Den von dir angesprochenen Trend hat es also nicht gegeben.
 
Es gab schon genug HDDs mit 4 oder 5 Plattern und welche Probleme das verursacht hat kann man überall nachlesen.
5-platter modelle gab es schon in den 90igern. mag sein, dass da die ein oder andere serie mit problemen dabei war. die regel ist das allerdings nicht. und speziell hitachi/ibm hat bei seinen kapazitätsdurchbrüchen eigentlich immer auf eine entsprechende organisation mit 5-plattern gesetzt. das ist weder neu noch waren die besonders fehleranfällig (ausnahmen mögen die regel bestätigen).
 
Nein, das wirkt sich nur auf die Performance aus (und das auch nur bei stark komprimierbaren Dateien), nicht auf den Speicherplatz der Daten. Die werden quasi nur komprimiert, damit sie schneller durch den Bus passen.
Welcher Bus soll das denn sein? Der Bus zwischen SSD-Controller (der erledigt das Komprimieren) und Speicherchips?
Es wäre irgendwie unlogisch, die Dateien NICHT gleich so komprimiert zu speichern. Außerdem: wer soll die Daten denn vor dem Speichern wieder auspacken? Die Speicherchips selber?
Oder wird bei diesen SSD ein spezieller Spezialtreiber installiert, der auf Betriebssystemebene die Daten komprimiert? Dann müßte man ja deutlich mehr als die SATA-Schnittstelle hergibt über eben diese transportieren können...
 
Da der eigentliche Zweck der Komprimierung die Verringerung der Anzahl der Schreibvorgänge ist, werden die Daten vermutlich sehr wohl komprimiert geschrieben, da a) die Anzahl der Schreibvorgänge bei Flashzellen begrenzt ist und b) die Anzahl komplett freier Flashzellen bei SSDs die Schreibgeschwindigkeit beeinflusst (Stichwort Write Amplification).

Warum kann man dann aber nicht mehr Daten auf SandForce-SSDs schreiben als auf andere SSDs? Weil der Controller nach außen so tut als würde er exakt die Anzahl Zellen vollschreiben, die der Größe der unkomprimierten Daten entspricht, vermutlich aus Gründen der Konsistenz (wieviel freien Platz soll er melden? Er weiß ja nicht wie komprimierbar die nächsten Daten sind) und weil er die eigentlich freien Zellen sehr gut für besseres Wear Levelling und zur Beschleunigung zukünftiger Schreibvorgänge gebrauchen kann.
 
Welcher Bus soll das denn sein? Der Bus zwischen SSD-Controller (der erledigt das Komprimieren) und Speicherchips?
Es wäre irgendwie unlogisch, die Dateien NICHT gleich so komprimiert zu speichern. Außerdem: wer soll die Daten denn vor dem Speichern wieder auspacken? Die Speicherchips selber?
Oder wird bei diesen SSD ein spezieller Spezialtreiber installiert, der auf Betriebssystemebene die Daten komprimiert? Dann müßte man ja deutlich mehr als die SATA-Schnittstelle hergibt über eben diese transportieren können...

Da habe ich mich vielleicht etwas unglücklich ausgedrückt. Natürlich meine ich mit dem Bus die Anbindung vom Controller zu den Speicherchips. Die Daten werden wie laszlo schon angedeutet hat natürlich auch komprimiert abgelegt - würde ja sonst keinen Sinn machen, auf dem Weg von den Chips zum Controller beim Abspeichern zu dekomprimieren und beim Lesen wieder komprimieren zu müssen, um den Speed hoch zu halten. Je weniger Bytes an Daten geschrieben/gelesen werden muss, um so mehr Daten passen pro ms durch den Bus/ die Anbindung zum Controller, wo dann die Komprimierung/Dekomprimierung wieder stattfindet.

Allerdings sparen SF-Controller-basierte SSDs dadurch keinen Speicherplatz, darum ging ja die Frage. Das liegt einfach daran, dass erstens nur ganze Blöcke belegt werden, selbst wenn diese auch durch Komprimierung im Extremfall nur zu 1% beschrieben werden und zweitens an der nicht vorauszusagenden Größe nach der Komprimierung, da nicht jede Datei gleich komprimiert werden kann.

Ich hoffe du kannst jetzt meinem Gedankengang folgen. :)
 
Zuletzt bearbeitet:
Das Thema hats wohl in sich ;)

Werde wohl zu einer Crucial greifen, SF.-SSDs scheinen nicht immer die kompatibelsten zu sein
 
5-platter modelle gab es schon in den 90igern. mag sein, dass da die ein oder andere serie mit problemen dabei war. die regel ist das allerdings nicht. und speziell hitachi/ibm hat bei seinen kapazitätsdurchbrüchen eigentlich immer auf eine entsprechende organisation mit 5-plattern gesetzt. das ist weder neu noch waren die besonders fehleranfällig (ausnahmen mögen die regel bestätigen).

Okay da gebe ich mich geschlagen, habe nur meine Erfahrungen der letzten 16 Jahre widergegeben...

Mir sind in dieser Zeit drei Festplatten über den Jordan gegangen: eine IBM Deathstar und einmal eine 3 TB mit 5 Plattern und eine 2 TB mit 5 Plattern - beide trotz ordentlicher Kühlung kaum unter 40° zu bekommen bei Last.
 
Kann mir jemand Folgendes erklären?

Vor ca. einem Monat habe ich im onlineshop von plus.de eine 128GB SSD von CnMemory gekauft. "Phantom II" heißt das Ding.
Sie soll einen Sandforce SF-1XXX Controller haben.

Der legt die Daten ja komprimiert ab.

Jetzt verstehe ich aber nicht warum die Datenraten im Kompressions-Benchmark von AS-SSD linear sind. Eigentlich müsste der Graph bei einer Sandforce-SSD doch von links nach rechts steigen, oder?





Von der Tendenz her sollte es doch so aussehen wie im untersten Screen hier auf der Seite:
http://www.hartware.de/review_1393_5.html
 
Vll ist die irgendwie auf das untere Limit begrenzt? *suspect*
 
dann wirst du bei meiner weinen.

Ich vermute
a) schnellerer SATA-Port bei mir oder
b) andere Chips. Wahrscheinlich wurden dann Restbestände zusammengewürfelt und die SSD auf den langsamsten Chip eingepegelt (das würde auch die niedrigen (garantierten!) Werte auf der Verpackung erklären!)
as-compr-benchssd128gfdkvp.png
 
Noch mehr weinen wird der Muckel, wenn er sieht, dass es eine deutlich bessere m4 128GB heute gerade mal fürn Zehner mehr gibt. ;)
 
Nicht vor einem Monat. Ich hab für die M4 128GB letzten Oktober 165€ bezahlt. Klar, jetzt für gut die Hälfte, aber dafür hab ich auch schon 9 Monate nen flotten Rechner. ;)


Ja, könnte sein das die SSD nicht schneller als 130mb schreiben kann, egal wie stark sich die Daten komprimieren lassen. Am Anfang fängt es ja auch eher so mit 120mb an. Wenn die Chips nicht mehr als 135mb zulassen kommt eben so ein linearer Graph raus.

So lahm ist diese SSD gar nicht, nur die Zugriffszeiten verwundern mich etwas.


@JKuehl: Schnellerer Port könnte sein. Angeblich sind Laptops gerne mal etwas eingebremst aus Energiespargründen. Meine steckt in einem Dell Studio 1749, gemeinsam mit einer 1TB Samsung.
 
Ist der "Windows auf einer anderen Partition als die Daten installieren" Tipp noch aktuell für SSDs?

Frage weil meine 64er SSD doch, hm, klein ist. Wenn ich die 64GB für Windows und meine Daten nutze würde ich wertvolle GB gewinnen die sonst für die Systempartition draufgehen.

Wollte für ein neues Gerät die Crucial M4 mit 128GB anschaffen. Die Preise sind ja doch runtergegangen. Wenn jetzt niemand ganz laut "Nein" schreit gehe ich davon aus das nichts neues passiert und die Crucial noch immer supi ist.
 
Daten gehören nie auf die Systempartition, völlig unabhängig vom Datenträgertyp, falls man die Systempartition mal neu aufsetzen muß.
Nur in Ausnahmefällen kann man die mit auf die SSD packen, z.B. wenn oft darauf zugegriffen wird oder man die Geschwindigkeit dafür unbedingt braucht.
Ich persönlich nutze einfach den Ordner "Eigene Dateien" nicht, sondern einen Ordner auf der Datenfestplatte.
 
Zuletzt bearbeitet:
Es reicht wenn man Windows und die Programme auf der SSD installiert. Die Daten (also ich gehe von Filme, Audiodateien etc. aus) kommen wie gehabt auf ne normale große HDD. Ich habe auch ne 64GB SSD (m4) und habe noch ~15GB frei nach dem Windows und alle Proggis drauf sind.

Allerdings kann man beim Preis der 128GB m4 aktuell schon schwach werden. Und ja, die m4 ist immer noch empfehlenswert (neben der Samsung 830).
 
Ist eben abhängig von den Daten selbst. Wenn die ständig verändert werden sollte man die auf was anderem auslagern da die Lebensdauer der SSD vom ständigen Beschreiben reduziert wird, so weit die Theorie. Werden die aber selten verändert und meist nur gelesen ist es widerum egal.

Wichtig ist aber eher das man die SSD bzw. die Partitionen nicht randvoll macht, denn dann hat der Controller mehr Platz zur Verfügung und es müssen nicht ständig die selben Blöcke beschrieben werden.

Die M4 ist nach wie vor eine der besten Empfehlungen
 
Klar, kann man auch.
Aber ich bin froh, wenn die Daten dort liegen, wo nur ICH sie vermute, nicht im Standardpfad.
 
Man kann die Daten auch ruhig in EINIGEN WENIGEN LEICHT ZU SICHERNDEN / WIEDERHERSTELLBAREN ORDNERN auf die Ssystempartition einpacken. Vorraussetzung ist natürlich ein ordentliches mehrfaches, dezentrales Backup (aber das haben wir doch sowieso alle so eingerichtet....)
 
Warum sollten die steigen? Ist doch klar dass das linear ist. Woher soll die Steigerung kommen?

Kann mir jemand Folgendes erklären?

Jetzt verstehe ich aber nicht warum die Datenraten im Kompressions-Benchmark von AS-SSD linear sind. Eigentlich müsste der Graph bei einer Sandforce-SSD doch von links nach rechts steigen, oder?





Von der Tendenz her sollte es doch so aussehen wie im untersten Screen hier auf der Seite:
http://www.hartware.de/review_1393_5.html
 
Wenn Daten mit steigender Kompressionsfähigkeit getestet werden, ist es eigentlich eher klar, dass es NICHT linear sein darf. ;)
Siehe Link.
 
Begrenzung durch das Interface?
 
Wenn Lese- und Schreibrate gleich wären, könnte man das vermuten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten