Gerücht Klassische Festplattenbranche dem Ende nah?!

User-News

Von el-mujo

Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.
In einem Forbes-Artikel aus dem Dezember 2014 zum Thema Festplatten und deren technische und preisliche Entwicklung ist folgendes interessantes zu entnehmen:


"With future declines in the price of HDD storage ($/TB) largely dependent upon increases in the HDD areal density, it is extremely important for the industry to deliver on its plan for 30% CAGR for HDD areal density by 2017. Although there are challenges for other storage technologies, such as flash memory"


Seit der Flutkatastrophe 2011 auf den Philippinen konnte die Branche die durchschnittlich erwartete Datendichtesteigerung nicht mehr umsetzen wie wir es aus anderen Branchen der IT kennen. Dazu kam der Umstand, dass die Hersteller sich auf die Situation eingestellt haben und die Preise der vorhandenen Produkte künstlich hoch gehalten haben. Diverse Fusionen/Übernahmen (die durch die EU durchgewunken wurden) verschärften zudem die Lage dahingehend, dass nach der Flut kein Innovationsdruck mehr bestand. Die Börsenkurse gingen nach oben als Folge gesteigerter Gewinne. Die technische Entwicklung blieb auf der Strecke.

Die Folge ist ein "Gap" in der Entwicklung seit 2012 auszumachen. Und jetzt wird es eben spannend. Schaffen die SSD-Hersteller den Break-Even zu den Magnetplatten, ist's um die Magnettechnologie entgülig geschehen. In den 4 Jahren nach der Flut sind die Preise defacto gleich geblieben. Die SSD-Preise sind jedoch kontinuierlich weiter gefallen, wie woanders auch in der Branche allgemein.

Passiert demnächst nicht ein Wunder auf Magnetebene ist das Ende in greifbare Nähe gerückt. Bis 2017 müssten wir ca. 15 bis 20TB große Platten zum Preis der jetzigen bekommen um die Kurve noch zu kriegen. Ich bin optimistisch, dass DAS NICHT GELINGT! Die Technologie hätte schon spätestens in den 80ern auf den IT-Friedhof geschickt werden müssen. Oligopolistische internationale Marktstrukturen haben dies jedoch stehts zu verhindern gewusst.

Meine persönliche Sorge ist jetzt, dass die restlichen 3 Hersteller den SSD-Markt aufkaufen und wieder versuchen oligopolistische Strukturen aufzubauen. Der Trend ist deutlich erkennbar. Entweder man kauft kleine SSD-Hersteller auf oder produziert selbst Halbleiter oder beides. Diesem Sog kann sich kein unabhängiger Hersteller entziehen. Nur gegen diesen Markt aufgestellte Konstellationen (Micron/Crucial im Value-Segment - Intel im Premium-Segment) können sich dem entgegenstämmen.
Wohin das führt weiß ich nicht - ist aber interessant zu beobachten. Es ist nunmal eine Schlüsseltechnologie unserer Zeit und das Rückgrat der Wirtschaft und des digitalen Daseins. Ohne ausreichend Festplatten gäbe es kein Internet und für manch Einen auch keine Indentität.



http://www.forbes.com/sites/tomcoughlin/2014/12/22/hdd-areal-density-and-tb-trends/

Und nun dürft Ihr die Situation beurteilen.
 
Zuletzt bearbeitet:
Kann nicht so dramatisch sein, wenn aus Dezember 2014 jetzt erst hier auftaucht.
 
Da hat wohl Jemand noch nie in die riesen Data Center reingeguckt? Die gieren nach wie vor nach Speicherplatz.

Das angesprochene Wunder heißt zum Einen Helium und zum Anderen Shingled Recording. 8 und 10TB sind doch schon da. 15 TB sind machbar in 2 Jahren.

Ja, die Branche hat sich lange auf der Flut ausgeruht und die Nachfrage der Endverbraucher mag zurückgegangen sein. Aber die Clouds explodieren doch immer noch ungebrochen und brauchen tonnenweise Platz. Wenn die Kiddies zu blöd zum Lesen sind, dann muß man denen halt jede noch so profane Anleitung als Video vorspielen. Und irgendwo muß der ganze Mist ja gespeichert werden.
Statt dass jeder zu Hause seine 2-3 Festplatten zu lagert, sind in Zukunft eben nur noch SSDs in den kleinen tragbaren Geräten und die Daten liegen in der Cloud. Meine aber nicht. ;)

[Sarkasmusironie]Eher ist Intel dem Ende nah, weil in Handies keine intel-CPUs sind. Ist genau so einseitig.[/Sarkasmusironie]

PS: http://www.heise.de/newsticker/meldung/Seagate-4-TByte-Festplatte-in-2-5-Zoll-2716719.html
 
Zuletzt bearbeitet:
Und welche Prozessoren kommen in den Servern der Cloud zum Einsatz? - Intel! Intel steht besser da denn jeh. Der Servermarkt zeigte eine so starke Konvergenz hin zu x86 in den letzten 10 Jahren dass es fast nur noch x86-Server gibt. Klar gibt es noch Ausnahmen speziell im Mainframe-bereich. Clound-Cluster sind aber größtenteils x86-er.

Ja ja Helium - seit x jahren sprechen die davon, das es voran geht - Nichts bewegt sich! Es kommen neue Größen, aber das TB/€-Verhältnis ist absolut stabil, steigt in letzter Zeit sogar wieder. Ich gebe keine 250€ für eine 5TB-Platte aus. Und kannst dir ja vorstellen, was die dann für 15TB nehmen würden/wollen. Ich denke die werden alles nehmen was möglich ist bevor es zu ende geht. Nochmal richtig Kasse machen. Die lassen sich ihren Abgang versilbern um dann mit SSDs eine neue Goldgrube aufzumachen. Den Wechsel dazwischen erleben wir gerade (~10-15 Jahre) in Form von ausbleibenden Preisnachlässen zur Angleichung der Preisniveaus.

Backend-seitig ist der PC doch längst mit schnelleren Bus-Systemen ausgestattet und bereit für die nächste Generation von Massenspeichertechnologie.


"Intels wachstumsstärkster Bereich sind Server-CPUs und -Systeme: Der Umsatz der Data Center Group stieg um acht Prozent"
http://www.golem.de/news/quartalsbericht-intel-steigert-gewinn-trotz-pc-krise-1401-103965.html
 
Zuletzt bearbeitet:
Hey Leute Cruger zahlt uns die Platten.
 
"With future declines in the price of HDD storage ($/TB) largely dependent upon increases in the HDD areal density, it is extremely important for the industry to deliver on its plan for 30% CAGR for HDD areal density by 2017. Although there are challenges for other storage technologies, such as flash memory"
Was hier nur angedeutet wird ist, dass die "challenges" bei den Halbleitern noch deutlich schwieriger sind als bei den Magnetplatten. Derzeit kosten SSDs pro TB etwa 11x mehr als HDDs. Die nächste Generation in 10nm bringt Kostenersparnisse im Bereich von nur 10-20%, da nicht nur die Fab-Kosten (>10 Mrd $) deutlich steigen, sondern auch die Waferkosten. Ob man im Sub-10nm Bereich überhaupt noch Kostenersparnisse hat ist noch nicht sicher. 3D-NAND und TLC bringen auch nur einmal Kostenersparnisse und sind zum Teil in den jetzigen Preis bereits mit drin.

Bei den Magnetspeichern hingegen sind mit HAMR und BPM zwei Technologien realisitisch absehbar, die die Datendichte jeweils um den Faktor 2-3 erhöhen könnte ohne die Herstellungskosten signifikant zu erhöhen. Und wer jetzt sagen will, dass HAMR schon ewig Verspätung hat, hat damit Rechte, sollte aber fairer Weise auch berücksichtigen, dass das bei EUV nicht weniger der Fall ist.

Schaffen die SSD-Hersteller den Break-Even zu den Magnetplatten, ist's um die Magnettechnologie entgülig geschehen.
Naja, das ist doch die Definition eines Break-Even. Ob das aber tatsächlich jemals passieren wird ist zumindest mMn fraglich. Ich bin mir nicht einmal sicher, ob die Flash-Technologie jemals das Preis/Kapazität Verhältnis erreichen wird, dass die HDDs bereits heute haben.

Die SSD-Preise sind jedoch kontinuierlich weiter gefallen, wie woanders auch in der Branche allgemein.
Das die Preise recht schnell gefallen sind liegt in erster Linie darin begründet, dass vor dem Aufkommen der SSDs Flash-Speicher häufig in Strukturbreiten gefertigt wurden, die mehrere Generationen hinter der Spitze lagen. Da war ein schnelles Aufholen recht schnell und kostengünstig machbar. Jetzt liegt man aber mittlerweile gleichauf mit der Spitze und siehe da, die Preise sinken kaum noch.

Passiert demnächst nicht ein Wunder auf Magnetebene ist das Ende in greifbare Nähe gerückt. Bis 2017 müssten wir ca. 15 bis 20TB große Platten zum Preis der jetzigen bekommen um die Kurve noch zu kriegen.

Zumindest 15TB halte ich bis 2017 für machbar zum gleichen Preis wie heute 8TB. Andererseits sehe ich Flash-Speicher bis dahin in dieser Preisklasse nicht bei 15-20TB, sondern eher bei 2-4TB und damit wird der Totgesagte weiterleben.

Ich bin optimistisch, dass DAS NICHT GELINGT! Die Technologie hätte schon spätestens in den 80ern auf den IT-Friedhof geschickt werden müssen. Oligopolistische internationale Marktstrukturen haben dies jedoch stehts zu verhindern gewusst.

Je schneller bessere Technologie kommt, desto besser. Allerdings sehe ich keine ideologischen Gründe dafür, dass es noch heute HDDs gibt, sondern einfach nur technologische. Was hättest du denn in den 80ern als Ersatz genommen?

Meine persönliche Sorge ist jetzt, dass die restlichen 3 Hersteller den SSD-Markt aufkaufen und wieder versuchen oligopolistische Strukturen aufzubauen. Der Trend ist deutlich erkennbar. Entweder man kauft kleine SSD-Hersteller auf oder produziert selbst Halbleiter oder beides.

Von den drei HDD-Herstellern (WD, Seagate, Toshiba) hat nur letzterer eigene Halbleiterfertigung. Für ein Oligopol kämen dann also eher Intel, Micron, Samsung und Toshiba in Frage. Seagate und WD sind da eher keine ernsten Mitspieler. Die Kosten für eine einzigen moderne Halbleiterfabrik übersteigt den gesamten Jahresumsatz beider Firmen.
 
Dann schau mal ins Patentarchiv diverser Plattenhersteller.
Es gab genügend funktionierende Konzepte umd die alte Technologe zu überwinden. Alle diese Technologieen wurden aufgekauft und nie weiterentwickelt und somit unter Verschluss gehalten. Die Branche wehrte sich mit Händen und Füßen gegen einen technologischen Sprung.
Dazu gabs mal ne schöne Doku vor nicht allzulanger Zeit im TV. Da haben die vom Bundesarchiv Tacheles geredet.
 
Hey Leute Cruger zahlt uns die Platten.
ich kann mich nur dran erinnern, dass wir das thema preise schon mal diskutiert haben. ist zwar schon eine weile her, aber grundsätzlich geändert hat sich bis heute nichts. und aus sicht der verbliebenen hersteller kann ich das sogar nachvollziehen. vor der marktbereinigung gab es über viele jahre zwischen den diversen hdd-produzenten einen teilweise ruinösen preiskampf. vor rund 10 jahren haben mit ausnahme von wd alle hersteller quartalsweise oder übers ganze jahr rote zahlen geschrieben. auch wd war ende der 90iger bis 2001 "in trouble". diese entwicklung hat letzten endes zur marktbereinigung und dem "verschwinden" von quantum, maxtor, samsung oder ibm bzw. hitachi geführt.

dass das übrig gebliebene oligopol nicht unbedingt vorteilhaft für den verbraucher ist, streitet auch niemand ab. dass die hersteller grundsätzlich kein interesse mehr an der damaligen teils desaströsen preis-abwärtsspirale haben, kann ich aber auch nachvollziehen. zumal aus kundensicht der preiskampf seiner zeit nicht unbedingt zu qualitativ besseren produkten geführt hat.

Dann schau mal ins Patentarchiv diverser Plattenhersteller.
Es gab genügend funktionierende Konzepte umd die alte Technologe zu überwinden. Alle diese Technologieen wurden aufgekauft und nie weiterentwickelt und somit unter Verschluss gehalten. Die Branche wehrte sich mit Händen und Füßen gegen einen technologischen Sprung.
Dazu gabs mal ne schöne Doku vor nicht allzulanger Zeit im TV. Da haben die vom Bundesarchiv Tacheles geredet.
klingt wie die automobil-branche. ;)
 
Ja, der Vergleich ist garnicht so abwegig.

Hätte man von Anfang an konsequent auf Elektro gesetzt, wie die ersten Autos ja konzipiert waren, wären wir heute ne Menge Probleme los bzw. hätten Neue :-)

Es ist einzig und allein der Preis, der die Magnettechnologie noch am Leben hält. Mit Flash sind schon höhere Datendichten bezogen aufs Gehäusevolumen möglich als mit Magnettechnologie. Es gibt derzeit keinen technischen Grund mehr Magnettechnologie einzusetzen. Sie ist vollends ersetzbar geworden. Und dieser Umstand ist NEU für die Hersteller. Speicherriesen aufkaufen geht mal eben nicht so leicht.

Samsung hat die zeichen der Zeit recht früh erkannt und die Technologie abgeworfen. Toshiba hadert noch. WD und Seagate leben definitiv noch im letzten Jahrtausend.
 
Und der Stillstand? Zu was hat er geführt? Zu besseren Produkten? Sind denn die Produkte besser als 2011? Eher nicht. Die Qualität ist gleich geblieben. Ausreißer bei Festplatten gab es schon immer. Maxtor hatte da ne Reihe, IBM hatte seine Deathstar, Seagate war auch bei einem Serienmodell für häufige Ausfälle bekannt.....

Und ich meine Seagate war sogar nach den Preiskämpfen.
 
Es ist einzig und allein der Preis, der die Magnettechnologie noch am Leben hält.

Ich finde aber auch, mit Magnetplatten wäre im Fall eines Falles die Daten leichter wiederherzustellen als mit Flash. Man braucht nur eine gewisse Überspannung, der sämtliche Elektronik röstet. Auch sind Magneplatten vorteilhafter bei längerer Lagerung.

Aber das stimmt schon, Flash hat mittlerweile gute Vorteile (Platz, Stromverbrauch, Geschwindigkeit)
 
Und nun dürft Ihr die Situation beurteilen.
Der Preisanstieg vollzieht sich definitiv nur in der Eurozone. Bei uns sinken die Preise langsam, aber kontinuierlich. Kann ich allerdings nur bei WD beurteilen, da ich nichts anderes kaufe.
Und wenn du dir mal die CPUs und GPUs ansiehst, da wirst du feststellen, daß es derzeit auch einen Stillstand gibt. Die 14nm Waferproduktion sollte ja auch schon seit 2 Jahren laufen.
 
Ja, weil die Konkurrenz fehlt. Deswegen.
 
Die Technologie hätte schon spätestens in den 80ern auf den IT-Friedhof geschickt werden müssen. Oligopolistische internationale Marktstrukturen haben dies jedoch stehts zu verhindern gewusst.
ORLY?!
WAS wären denn die damaligen Alternativen gewesen?!
Flash war damals untauglich. Kannst dir ja mal 'nen EPROM anschauen und wie die Specs davon sind.

Und ein HDD Oligopol in den 80ern?!
Da gab es u.A. Conner, neben WD, Maxtor, Shugart, IBM und noch einigen anderen Buden, die man längst vergessen hat...


Und der Stillstand? Zu was hat er geführt? Zu besseren Produkten? Sind denn die Produkte besser als 2011? Eher nicht. Die Qualität ist gleich geblieben. Ausreißer bei Festplatten gab es schon immer. Maxtor hatte da ne Reihe, IBM hatte seine Deathstar, Seagate war auch bei einem Serienmodell für häufige Ausfälle bekannt.....

Und ich meine Seagate war sogar nach den Preiskämpfen.
Naja, hängt auch vieles vom Umfeld ab, in dem die Platten betrieben werden. DIe mögen z.B. keine hohen Spannungsschwankungen....

Also am besten in 'nen NAS (ähnliches) Gerät stecken und per LAN drauf zugreifen. UNd in den GamePC nur das nötigste rein stecken, falls man modernste Grafikkarten nutzt...
Die sind da nämlich schon recht wellig und auch nicht gesund für die Netzteile...

Aber auch hier hängt viel vom Glück oder Pech ab.

Bei mir wars aber idR so, dass immer eine Platte von 2en ausgefallen ist, nach recht kurzer Zeit...
Auch unabhängig von den Herstellern (einmal 2x HGST, einmal 2x WD, jeweils eine davon recht schnell hin).
Das Austauschteil hingegen funzt immer noch einwandfrei...

Daher sollt man HDDs erst mal 'ne Woche oder so 'einlaufen' lassen. Sprich keine besonders wichtigen Daten drauf packen, nur irgendwas, was entweder ersetzbar oder egal ist...
 
Ja, weil die Konkurrenz fehlt. Deswegen.
Nein, weil TSMC und Global Foundries es nicht gebacken bekommen.
Intel kann sich somit Zeit lassen, aber alle Kunden von den beiden Anderen würden sicher gerne in 14nm produzieren lassen.
Stelle dir eine R9 Fury Nano in 14nm vor.
 
Nein, weil TSMC und Global Foundries es nicht gebacken bekommen.
Wieso Nein? Wenn die Beiden es nicht gebacken bekommen, dann fehlt doch nunmal die Konkurrenz im übertragenen Sinne.
Wobei ja Samsung inzwischen schon weiter ist, vielleicht sollte AMD dort fertigen lassen.

Der Euro/Dollar scheint ja nun langsam einen Boden gefunden zu haben. Also dürften die Preis zumindest nicht mehr weiter steigen im Euroraum. Wobei, wenn ich zu den Griechen schaue...
 
Die SSD-Preise sind jedoch kontinuierlich weiter gefallen, wie woanders auch in der Branche allgemein.
Da liegt auch die Konkurrenz für die HDD Hersteller, die müssen sich daher schon bemühen die Kapazitäten zu steigern und die Preise pro GB zu senken, sonst überholen sie die SSD Hersteller am Ende auch dort und damit würde dann das letzte Argument für eine HDD wegfallen.

Der Trend ist deutlich erkennbar. Entweder man kauft kleine SSD-Hersteller auf oder produziert selbst Halbleiter oder beides.
Wer hat welchen SSD Hersteller gekauft? Seagate hat mit Sandforce einen Hersteller von SSD Controllern ohne eigene Fab gekauft, das spielt aber keine Rolle. Der Schlüssel für Erfolg auf den SSD Massenmarkt ist die eigene NAND Fertigung und die ist in den Händen von nur 4 Playern, Flash Forward, ein Joint Venture von Toshiba und SanDisk, IMFT (Micon und Inte), Samsung und SK Hynix. Alle anderen SSD Anbieter müssen die NANDs bei denen einkaufen und eine Konzentration ähnlich wie bei HDDs vor 2011 ist damit schon gegeben.

Nur gegen diesen Markt aufgestellte Konstellationen (Micron/Crucial im Value-Segment - Intel im Premium-Segment) können sich dem entgegenstämmen.
Nein, die HDD sind keine Gefahr für die SSD Fertiger mit eigener NAND Fertigung. WDC wird an der Börse mit 21,2Mrd USD bewertet, Seagate mit 16,9Mrd. Dagegen sind SanDisk mit 13Mrd USD, Micron mit 26,5Mrd und SK Hynik mit fast 29 Mrd USD bewertet, von Intel, Toshiba und Samsung bei denen die NAND Fertigung nur einen Teil der Konzerne ausmacht, gar nicht zu reden.

Von den Größenordnungen her könnte allenfalls SanDisk übernommen werden, aber von einer möglichen Übernahme der NAND Technologie dirch die verbleibenden HDD Hersteller damit diese weiter den Markt für Speicherprodukte kontrollieren, kann keine Rede sein. Diese Gefahr besteht schlicht und einfach aufgrund der Größenordnungen der Konzerne nicht.

Die Branche wehrte sich mit Händen und Füßen gegen einen technologischen Sprung.
Das ist Quatsch, die würde jede gangbare Konzept lieber als morgen umsetzen, wenn damit HDDs mit größere Kapazitäten und mehr GB pro € machbar wären, oder glaubst Du die geben nur zum Spaß Unsummen für die Forschung aus und bringen dann so Dinger die SMR oder He-Flüüung nur damit niemand wergen der angeblich besseren Technologie die in den Schubladen steckt, nachfragt?

Ja, der Vergleich ist garnicht so abwegig.
Der Vergleich ist nicht abwegig, aber der Gedanke in beiden Fällen umso mehr. Die Autohersteller geben auch nicht Milliarden jedes Jahr für die Forschung aus um dann nur ein paar Prozent Karftstoff einzusparen und halten dabei wirklich viel sparsamere Technologien in der Schublade um die Ölproduzenten zu stützen, wie es von Verschwörungstheoretikern gerne behauptet wird. Hätte einer von denen eine gangbare Technologie um den Verbrauch deutlich zu reduzieren, so würde er sie auch sofort einsetzen und hätte einen gewaltigen Wettbewerbsvorteil.

Hätte man von Anfang an konsequent auf Elektro gesetzt, wie die ersten Autos ja konzipiert waren, wären wir heute ne Menge Probleme los bzw. hätten Neue :-)
Die Eletroautos sind damals aus dem gleichen Grund wieder verschwunden, warum sie auch heute nicht den erwarteten und von manchen Politikern erhofften Erfolg haben: Die Batterien! Die sind einfach nicht leistungsfähig genug und viel zu teuer, alleine die Kosten für den Ersatz oder das Leasing (z.B. bei Renault) der Batterien übersteigen oft die Kosten für den Kraftstoff vergleichbarer konventioneller Fahrzeuge.

Tesla ist vor allem erfolgreich wo es hohe Subventionen und Vergünstigen für e-Autos gibt und sie sind vor allem so erfolgreich, weil sie nur e-Autos bauen und diese auch noch teuer sind. Damit kann jeder Wohlhabende sowohl seinen sozialen Status als auch sein Umweltgewissen zeigen, weshalb auch kleine, billigere Elektroautos und Elektroversionen normaler Autos Ladenhüter sind, da Kunden in der Preisklasse eben auch rechnen ob es sich lohnt. BMW macht deshalb auch die i Modelle so anders, aber scheinbar reicht selbst das nicht, denn mit einem BMW verbinden keiner ein Elektroauto, wie es bei Tesla der Fall ist. Der Prius ist ja auch das erfolgreichste Hybridauto, weil ihn jeder sofort als solches erkennt, wärend eben Hybridversionen normaler PKW Modelle kaum Erfolg haben, da sieht ja keiner das der Besitzer was für die Umwelt tut und die würde man nur kaufen, wenn sie sich auch lohnen.
Mit Flash sind schon höhere Datendichten bezogen aufs Gehäusevolumen möglich als mit Magnettechnologie. Es gibt derzeit keinen technischen Grund mehr Magnettechnologie einzusetzen. Sie ist vollends ersetzbar geworden. Und dieser Umstand ist NEU für die Hersteller. Speicherriesen aufkaufen geht mal eben nicht so leicht.
Du vergisst die höheren Preise und Kosten für die Fertigung von NAND, die Mehrpreise sind SSDs sind nicht einfach Mehrgewinn für deren Hersteller, auch wenn manche User das unbedingt so sehen wollen. Daher haben HDD wegen ihres Preises pro GB immer noch und wohl auch noch eine ganze Weile eine Existenzberechtigung. Die Kosten für NAND lassen sich auch nicht mehr wie bisher durch Verringerung der Strukturgrößen beliebig steigern, die NAND Hersteller sind an einer ähnlichen technologischen Grenze zur Steigerung der Datendichte wie die HDD Hersteller angekommen. Nur haben sie mit 3D NAND schon eine Ausweg und Samsung hat entsprechende NANDs auch schon länger in der Serienfertigung. Allerdings steigt dabei der Fertigungsaufwand und eine vierte Dimension wird sich danach auch nicht erschliessen lassen.

Samsung hat die zeichen der Zeit recht früh erkannt und die Technologie abgeworfen. Toshiba hadert noch. WD und Seagate leben definitiv noch im letzten Jahrtausend.
Bzgl. Samsung ist das richtig, Toshoba dürfte zu den 3.5" HDDs aufgrund der Übernahme von HGST durch WD wie Jungfrau zum Kinde gekommen sein. WD hat über HGST aber auch ein Standbein bei Enterprise SSDs, was viel lurkativer ist als Consumer SSD anzubieten. Nur was Seagate genau will, ist schwer zu durchschauen. Die setzen einerseits auf Hybridplatten (SSHDs), haben auch SSDs ins Angebot aufgenommen und dann Sandforce übernommen, dabei sollten eigentlich im Rahmen der Übernahme der Festplattensparte von Samsung zu deren NANDs und Controllern bekommen haben, sogar zu dem TLC und VNAND, die Samsung nicht in Volumen bzw gar nicht an Kunden abgibt.

Ich finde aber auch, mit Magnetplatten wäre im Fall eines Falles die Daten leichter wiederherzustellen als mit Flash.
Wer sich Sorgen um Datenwiederherstellung macht, der sollte sich besser mehr Gedanken über Datensicherung machen!

Ja, weil die Konkurrenz fehlt.
Das trifft zumindest für HDDs als Gantes nicht zu. Die SSD sitzen den HDDs im Nacken und verdrängen sie aus immer mehr Anwendungen, demnächst wohl aus den Servernräumen, zumindest für die Anwendungen wo es um Performance geht und wo bisher noch die HDDs mit 10.000rpm und mehr dominieren, denen dann ggf. bei der Performance mit einer dicken PCIe Cache SSD auf die Beine geholfen wird. Da werden künftig verstärkt 2.5" Data Center SSDs in den RAID stecken und dann kann man sich die Cache-SSD auch sparen.

Nein, weil TSMC und Global Foundries es nicht gebacken bekommen.
Die haben mit HDDs, SSDs und NAND aber nichts zu tun. Die NAND Hersteller haben alle eigene Fab und fertigen inzwischen in 16nm (IMFT, SK Hynix, vermutlich Samsung bei planaren NANDs) bzw. 15nm (demnächste Toshiba und SanDisk) Prozessen.
Intel kann sich somit Zeit lassen, aber alle Kunden von den beiden Anderen würden sicher gerne in 14nm produzieren lassen.
Das hat erstens mit dem Thema nichts zu tun, außer das es zeigt wie viel schwerer es wird die Entwicklung immer weiter voran zu treiben und damit schon zwangsläufig zu einer Konzentraion am Markt führt, da kleiner Anbieter diese Investitionen gar nicht mehr stemmen können, auch weil sie sich dann oft nur noch für den Anbieter bezahlt machen, der das Rennen gewinnt und als erster mit den Produkten auf dem Markt ist.
 
Samsung hat sich z.B. deswegen von den Festplattensparte getrennt, weil man im NAND mehr Zukunftspotential gesehen hat. Bei der Entscheidung könnte das Wissen um die nötigen Investitionen für weitere Steigerungen der Datendichts und damit Kapazität bei HDD durchaus eine Rolle gespielt haben.
Ersterem würde ich zustimmen, zweiterem hingegen nicht. Ich denke, dass vor allem die höheren Margen Samsung dazu gebracht hat das HDD-Geschäft zugunsten von Flash-Speicher aufzugeben. Samsung hat es bei den Festplatten nie geschafft in das deutlich lukrativere Server-Geschäft zu kommen. Bei einem neuen Markt wie den SSDs werden die Karten hingegen neu gemischt und wer wie seine eigenen Controller und Flashzellen produziert hat da natürlich deutliche Vorteile.

Da liegt auch die Konkurrenz für die HDD Hersteller, die müssen sich daher schon bemühen die Kapazitäten zu steigern und die Preise pro GB zu senken, sonst überholen sie die SSD Hersteller am Ende auch dort und damit würde dann das letzte Argument für eine HDD wegfallen.
Das ist zwar prinzipiell richtig, aber den Preis pro GB können die HDD-Hersteller meist nur durch höhere Kapazitäten erreichen. Die Nachfrage nach Platten im oberen Kapazitätsbereich ist aber bereits heute schon deutlich geringer als noch früher. Auf dem Markt für Heim- und Büro-PCs werden hauptsächlich kleinere Kapazitäten nachgefragt. Natürlich wächst das Cloud-Geschäft, allerdings nicht im gleichen Maße. Video- und Musik-Streaming hat z.B. sicherlich einige dazu veranlasst ihre eigene Video-/Audio-Sammlung aufzugeben oder zumindest die Neuanschaffungen zu verringern.

Die Eletroautos sind damals aus dem gleichen Grund wieder verschwunden, warum sie auch heute nicht den erwarteten und von manchen Politikern erhofften Erfolg haben: Die Batterien! Die sind einfach nicht leistungsfähig genug und viel zu teuer, alleine die Kosten für den Ersatz oder das Leasing (z.B. bei Renault) der Batterien übersteigen oft die Kosten für den Kraftstoff vergleichbarer konventioneller Fahrzeuge.

Da stimme ich dir voll und ganz zu. Meiner Meinung nach sind rein elektrisch angetriebene Autos für den Massenmarkt min. 1-2 Jahrzehnte zu früh dran. Interessanter für die nahe Zukunft finde ich Wasserstoff-Autos. Die Kosten- und Haltbarkeitsprobleme bekommen die Hersteller so langsam in den Griff. Probleme mit der Reichweite oder langen Tankzeiten würden komplett entfallen und CO2 neutral herstellen ließe sich Wasserstoff auch. Die ersten Großserienmodelle sollen ja dieses ja noch auf den Markt kommen.

Die Kosten für NAND lassen sich auch nicht mehr wie bisher durch Verringerung der Strukturgrößen beliebig steigern, die NAND Hersteller sind an einer ähnlichen technologischen Grenze zur Steigerung der Datendichte wie die HDD Hersteller angekommen.
Es gibt bei beiden Technologien Hürden, die überwunden werden müssen um die Kapazitäten weiter zu erhöhen. Der Unterschied liegt mMn aber darin, dass die Flashzellen-Hersteller bald nicht nur auf rein technologische Grenzen, sondern auch an physikalische Grenzen stoßen. So ist es noch nicht gesichert, ob man im Bereich < 10nm überhaupt noch stabile TLC-Zellen bauen kann, weil bei diesen Strukturbreiten Quanteneffekte eine Größenordnung erreichen, die die Technik nutzlos machen. Bei noch kleineren Strukturbreiten gilt das gleiche dann auch für MLC und SLC Zuellen.
Bei den Festplattenherstellern hingegen kann man noch einige Jahre (Jahrzehnte) evolutionär weiterentwickeln ohne an solche physikalischen Grenzen zu stoßen.

Nur haben sie mit 3D NAND schon eine Ausweg und Samsung hat entsprechende NANDs auch schon länger in der Serienfertigung. Allerdings steigt dabei der Fertigungsaufwand und eine vierte Dimension wird sich danach auch nicht erschliessen lassen.
3D-NAND ist nur ein kleiner Zwischenschritt, mit dem man sich 2-3 Shrinks "ersparen" kann. Es ist ein einmaliges "Geschenk", dass dann aber auch verbraucht ist.
Bei den Festplatten ist wohl SMR am ehesten mit 3D-NAND zu vergleichen, auch wenn die Hersteller das Kapazitätspotential aufgrund der Leistungsprobleme zum größten Teil unbenutzt lassen. HAMR und BPM haben hingegen beide das Potential, die Datendichte jeweils um mehrere Faktoren zu erhöhen. Bei den Flash-Zellen wäre mir keine Technologie mit vergleichbarem Potential bekannt.
 
Bei HAMR frage ich mich, wie man die vielen Laser oder Umlenkspiegel jeweils an den Köpfen der Festplatten unterbringen will.
 
Samsung hat es bei den Festplatten nie geschafft in das deutlich lukrativere Server-Geschäft zu kommen. Bei einem neuen Markt wie den SSDs werden die Karten hingegen neu gemischt und wer wie seine eigenen Controller und Flashzellen produziert hat da natürlich deutliche Vorteile.
Das ist zwar richtig und Samsung ist auf dem SSD Markt die Nummer Eins, bei Enterprise SSDs hinter Intel die Nummer Zwei. Aber gerade jetzt wird ja zum Angriff auf die besonders margenstarken Enterprise HDDs für Data Center geblasen, also jede 2.5" mit 10000rpm und mehr, die dort bisher meist zu finden sind. Die Enterprisesegmente sind ja bei HDDs wie bei SSDs sehr viel vielschichter als die Segmente für Heimanwender, bei beiden werden die HDDs aber in die Nische verdrängt wo der Preis vor GB gegenüber der Performance die entscheidende Rolle spielt, denn den Kampf um die Performance haben HDDs schon lange verloren.

Die Nachfrage nach Platten im oberen Kapazitätsbereich ist aber bereits heute schon deutlich geringer als noch früher.
Das mag für viele Heimanwender gelten, aber global steigt das Datenvolumen stärker als jemals zuvor und wird weit überwiegend auf HDDs gespeichert. Die ganze Anbieter die Daten in der Cloud speichern, legen diese weit überwiegend auf HDDs ab und auch google und Amazon werden nicht so bald alle Daten auf Flashspeichern halten können, da liegen die Hot-Data, Cool und Cold Data kommen aber noch lange auf HDDs.

Schau Dir mal diese Statistik zum global produzierten Datenvolumen an. Die immer höheren Auflösungen von Fotos und Videos erzeigen eben immer größere Dateien und jeder Hinz und Kunz filmt jede Futz und stellt ihn ins Netz oder speichert ihn auf seinem Onlineaccount oder Heimserver/NAS, gerade auch zunehmend in den Entwicklungsländern.

Interessanter für die nahe Zukunft finde ich Wasserstoff-Autos. Die Kosten- und Haltbarkeitsprobleme bekommen die Hersteller so langsam in den Griff.
Meines Wisens hat Wasserstoff noch immer das gleiche Problem wie Strom: Die Speicherung im Auto. Auch der bestens isolierte Hochdrucktank zum Speichern on flüssiger Form wird eine Verdampfung nicht verhindern und ist nach einer Wochen eben leer. Bei chemischer Speicherung dauert das Tanken zu lange. Wasserstoff ist daher nicht die Lösung fürs Auto, besser wäre es den Wasserstoff durch die Gasleitungsnetze zu den Haushaushalten zu bringen und dafür das Erd- oder Biogas im Auto zu verbrennen oder den Wasserstoff mit Kohlenstoff zu Kohlenwasserstoffen zu verarbeiten, die dann wie konventionelle Kraftstoffe gelagert und genutzt werden können. Das ist nur nicht sexy, weil eben nicht lokal Emissionsfrei. Damit ist es eben chancenlos, auch wenn es global besser wäre. Aber das ist Off-Topic.

So ist es noch nicht gesichert, ob man im Bereich < 10nm überhaupt noch stabile TLC-Zellen bauen kann, weil bei diesen Strukturbreiten Quanteneffekte eine Größenordnung erreichen, die die Technik nutzlos machen. Bei noch kleineren Strukturbreiten gilt das gleiche dann auch für MLC und SLC Zuellen.
Wobei die Probleme der 840 Evo schon gezeigt haben, dass selbst 19nm bei planarem TLC schon so keine Zellen bedeutet, dass selbst geringe Ladungsverlust die Nutzung der aufwendigen und langsamen Low Density Parity Check (LDPC) error correction erfordern können, selbst bei noch nicht sehr verschlissenen NAND. Richtig ist, dass die Probleme die TLC hat, bei weitere Verkleinerung der Zellen auch MLC und dann SLC NANDs betreffen werden.
Bei den Festplattenherstellern hingegen kann man noch einige Jahre (Jahrzehnte) evolutionär weiterentwickeln ohne an solche physikalischen Grenzen zu stoßen.
Nein, genau das geht nicht mehr, weil die Schreibköpfe nicht weiter verkleinert werden können, da sie sonst eine zu gerungere Magnetkraft entwickel um die Daten noch schreiben zu können. Das ist ja auch warum man bei SMR eben in Kauf nimmen muss immer ein weitere Spur zu überschreiben um die Datendichte zu steigern. Bei HMR will man mit Hitze die Ummagnetierungs leichter machen um eben mit der verringerten Kraft noch kleinere Schreibköpfe auskommen zu können.

3D-NAND ist nur ein kleiner Zwischenschritt, mit dem man sich 2-3 Shrinks "ersparen" kann. Es ist ein einmaliges "Geschenk", dass dann aber auch verbraucht ist.
Genau das sehe ich nicht so, denn man kann im Prinzip noch viel mehr Schichten übereinander Packen, der Himmel ist die Grenze. Aber natürlich braucht man viel mehr Bearbeitungsschritte für den Wafer und mit jedem Schritt steigt das Risko Ausschuss produziert zu haben. Die exakte Positionierung der Masken bei Tausenden von Bearbeitungsschritten ist ja auch nicht so banal und da dürfte der Hauptgrund liegen, warum man bei 3D NAND bisher so große Fertigungsstrukturen nutzt.
HAMR und BPM haben hingegen beide das Potential, die Datendichte jeweils um mehrere Faktoren zu erhöhen.
Das ist richtig, aber beide Technologien haben es bisher nicht in die Serienfertigung geschafft. Im Januar 2007 hatte Seagate über 30TB HDDs (300 Tbit) für 2010 in Aussicht gestellt und letzten November die erste HMR HDD für 2016 und 20TB HDDs in 2020. Selbst wenn man es schafft diese schon deutlich bescheideren Pläne einzuhalten, ist das im Verglech zu den aktuell verfügbaren 10TB (von HGST mit He und SMR) dann gerade einmal eine Verdoppelung in 5 Jahren.

Im historischen Kontext eine sehr geringe Steierungsrate und von den Risiken und Nebenwirkungen wissen wir noch gar nichts, also ob nicht wie bei SMR die Schreibrate womöglich leidet oder man dann nur noch eine beschränkte Anzahl an Schreibzyklen bekommt weil das Material nicht mehr verträgt (Stichwort Schmiermittelverdampfung) oder die Platten eine sehr eingeschränkte Betriebsstemperatur einhalten müssen damit es funktioniert oder was weiß ich was für Probleme man sich damit einkauft. Womöglich ein so unerwartetes Problem wie bei der 840 Evo, das die alten Daten dann nur noch langsam gelesen werden können, weil nach einiger Zeit die Bits schwerer zu unterscheiden sind und man auch eine Technik wie LDPC, also Samplen mit verschiedenen Thresholds (also z.B. Vorspannungen der Spule des Lesekopfes) vornehmen muss. Oder die Köpfe müssen mehrere Laser aufnehmen und werden so schwer, dass die Zugrifszeiten in den Keller gehen, wobei alleine die erforderliche Präzision bei deren Positionierung schon keine kleine Herausforderung sein dürfte.

Fest steht jedenfalls: Wäre es praktisch so einfach umzusetzen wie es theoretisch klingt, wäre HMR schon längst Realität geworden.
Bei den Flash-Zellen wäre mir keine Technologie mit vergleichbarem Potential bekannt.
SSDs müssen ja nicht ewig auf NAND Flash basiert sein, die ersten SSD waren sogar RAM Disks mit Batterien.
 
Aber gerade jetzt wird ja zum Angriff auf die besonders margenstarken Enterprise HDDs für Data Center geblasen, also jede 2.5" mit 10000rpm und mehr, die dort bisher meist zu finden sind. Die Enterprisesegmente sind ja bei HDDs wie bei SSDs sehr viel vielschichter als die Segmente für Heimanwender, bei beiden werden die HDDs aber in die Nische verdrängt wo der Preis vor GB gegenüber der Performance die entscheidende Rolle spielt, denn den Kampf um die Performance haben HDDs schon lange verloren.
Das ist zum Teil richtig. Wenn's um reine Performance geht, haben die HDDs keine Chance mehr. Der Markt mit möglichst großen Kapazitäten ist aber nach wie vor vorhanden und es gibt durchaus noch viele Firmen, die auch in diesem Bereich auf Enterprise-Platten setzen, auch wenn sich das in einigen Bereichen langsam ändert.

Meines Wisens hat Wasserstoff noch immer das gleiche Problem wie Strom: Die Speicherung im Auto. Auch der bestens isolierte Hochdrucktank zum Speichern on flüssiger Form wird eine Verdampfung nicht verhindern und ist nach einer Wochen eben leer.
Das Problem ließe sich mit neuen Werkstoffen wie Graphen lösen. Graphen ist sehr leicht, extrem fest (> 100x fester als Stahl) und gasdicht, selbst für Wasserstoff. Zudem gibt es auch noch Forschung, wie man Graphen so falten kann, dass man Wasserstoff auch ohne solch hohen Drücke sicher speichern kann (Graphentank für Wasserstoffauto)

Nein, genau das geht nicht mehr, weil die Schreibköpfe nicht weiter verkleinert werden können, da sie sonst eine zu gerungere Magnetkraft entwickel um die Daten noch schreiben zu können. Das ist ja auch warum man bei SMR eben in Kauf nimmen muss immer ein weitere Spur zu überschreiben um die Datendichte zu steigern. Bei HMR will man mit Hitze die Ummagnetierungs leichter machen um eben mit der verringerten Kraft noch kleinere Schreibköpfe auskommen zu können.

Das ist in erster Linie ein technisches Problem, kein physikalisches. Die Schreibköpfe können nicht verkleinert werden, weil man sonst kein ausreichend starkes Magnetfeld erzeugen kann. Die Magnetfeldstärke ist abhängig von der Stromstärke. Findet man ein Material, dass bei weniger Platzbedarf die gleiche Stromstärke verträgt kann man den Kopf weiter verkleinern. Und es gibt keine physikalischen Gesetze die besagen, dass es ein solches Material nicht geben kann. Graphen z.B. hat einen signifikant niedrigeren spezifischen Widerstand als Kupfer oder Silber und leitet auch Wärme sehr viel besser ab als die beiden. Damit sollte es also prinzipiell trotz kleiner werdendem Schreibkopf die gleiche Stromstärke (und damit Magnetfeldstärke) liefern können.

Genau das sehe ich nicht so, denn man kann im Prinzip noch viel mehr Schichten übereinander Packen, der Himmel ist die Grenze.
Sicherlich kannst du immer mehr Schichten stapeln, einen Kostenvorteil entsteht dadurch allerdings dann nicht mehr, denn die Kosten steigen linear mit der Zahl der Schichten. Den Kostenvorteil durch 3D NAND entsteht nicht durch das Stapeln an sich, sondern dadurch, dass du durch die zusätzliche Dimension eine platzsparendere Struktur benutzen kannst. Mit immer mehr Lagen kannst du da höchstens noch die Kapazität / Chip erhöhen, der Preis / Kapazität hingegen wird relativ konstant bleiben bzw. bei vielen Lagen wieder steigen.

Im Januar 2007 hatte Seagate über 30TB HDDs (300 Tbit) für 2010 in Aussicht gestellt und letzten November die erste HMR HDD für 2016 und 20TB HDDs in 2020. Selbst wenn man es schafft diese schon deutlich bescheideren Pläne einzuhalten, ist das im Verglech zu den aktuell verfügbaren 10TB (von HGST mit He und SMR) dann gerade einmal eine Verdoppelung in 5 Jahren.
Das Seagate da viel zu optimistisch war bzgl. des Erscheinungstermins steht außer Frage. Allerdings gibt es bereits bei mehreren Herstellern funktionierende Festplatten mit HAMR-Technik und das schon seit 1-2 Jahren. Diese Prototypen sollen auch schon typischen Anforderungen für Enterprise-Platten was Haltbarkeit und Zuverlässigkeit angeht, erfüllen. Warum diese bisher nicht in Serie gegangen sind ist nicht bekannt. Laut TDK (ein wichtiger Zulieferer für alle HDD-Hersteller) erwarten sie allerdings Festplatten mit HAMR-Technik und >= 15TB Kapazität für 2016.
HGST greift bei der 10TB Platte mit He-Füllung + SMR ganz tief in die Trickkiste. Die HAMR-Platten nächstes Jahr werden wohl erstmal auf beides verzichten und trotzdem 50% mehr Kapazität bieten.

von den Risiken und Nebenwirkungen wissen wir noch gar nichts, also ob nicht wie bei SMR die Schreibrate womöglich leidet oder man dann nur noch eine beschränkte Anzahl an Schreibzyklen bekommt weil das Material nicht mehr verträgt (Stichwort Schmiermittelverdampfung) oder die Platten eine sehr eingeschränkte Betriebsstemperatur einhalten müssen damit es funktioniert oder was weiß ich was für Probleme man sich damit einkauft.
Wie oben schon geschrieben, laufen Prototypen bereits seit 1-2 Jahren bei WD und Seagate. Da Seagate bereits Prototyp-Platten mit 10k rpm im Testbetrieb hat, die "Enterpise-Anforderungen" erfüllen, gehe ich davon aus, das es solche Einschränkungen nicht geben wird.

SSDs müssen ja nicht ewig auf NAND Flash basiert sein, die ersten SSD waren sogar RAM Disks mit Batterien.
Das ist richtig, es gibt einige neue Kandidaten für die NAND-Nachfolge, allerdings ist NAND-Speicher, wenn es um die Datendichte geht immer noch die beste. Andere potentiellen Techniken haben verschiedene Vorteile wie deutlich höhere Geschwindigkeiten, höhere Haltbarkeit, geringerer Stromverbrauch. Eines aber haben sie alle gemein, sie bieten bestenfalls die gleiche Datendichte wie NAND-Speicher. Mein persönlicher Favorit dabei ist STT-RAM. Es hat zwar nur die gleiche Datendichte, ist aber potentiell so schnell wie RAM, braucht nur 1/50 der Energie von Flash zum schreiben und die Zahl der Schreibzyklen liegt im Bereich von 10^16.
 
Zuletzt bearbeitet:
Der Markt mit möglichst großen Kapazitäten ist aber nach wie vor vorhanden und es gibt durchaus noch viele Firmen, die auch in diesem Bereich auf Enterprise-Platten setzen, auch wenn sich das in einigen Bereichen langsam ändert.
Das ist aber ein anderes Segment als das von dem ich gesprochen habe, denn das sind nicht die Mission Cricial HDDs, die sind heute alle in 2.5" gefertigt und haben meist bis 1.2TB, maxiimal 1.8TB (HGST Ultrastar C10K1800, Seagate Enterprise Performance 10K ST1800MM) Kapazität, dagegen gibt es schon SSDs für den Einsatz mit 4TB, also höhren Kapazitäten. SanDisk hat doch schon für dieses Jahr 8TB SSDs und für 2016 16TB SSD angekündigt:

Von Intel könnten nächste Jahr dann auch 10 TB SSDs kommen, wenn das 3D NANDs sich nicht verzögert. Die kosten mehr mehr als entsprechende Enteprise HDDs, die bei geizhals mit 1.8TB ab 812€ gelistet sind, aber in Enterprisestorgae kostet auch jeder Einbauplatz gar nicht so wenig Geld und mit den SSDs erspart man sich die Cache SSD um der Performance auf die Spünge zu helfen.

Das ist aber eben ein anders Marktsegment als das wovon Du sprichst, wo man dann 3.5" HDDs mit möglichst viele TB verwendet, deren Existenz SSDs wohl erst als letztes in Frage stellen wird, wenn das überhaupt jemals gelingen wird.
Das Problem ließe sich mit neuen Werkstoffen wie Graphen lösen.
...
Graphen z.B. hat einen signifikant niedrigeren spezifischen Widerstand
Graphen scheinen ja wahre Wunder zu können, aber oft lässt sich dann im Alltag doch nicht so viel realisieren wie in der Theorie und im Labor. Schön wäre es, aber warten wir es ab.

Sicherlich kannst du immer mehr Schichten stapeln, einen Kostenvorteil entsteht dadurch allerdings dann nicht mehr, denn die Kosten steigen linear mit der Zahl der Schichten.
Würden die Kosten linear steigen, wäre der Kostenvorteil sogar vorhanden, aber dem ist eben nicht so. Es ist bei 3D NAND ähnlich wie mit der Diegröße von Chips. Wenn man z.B. alle 1000mm² einen Fehler im Die wegen Staub hat, 100% staubfrei sind ja auch Reinräume nicht, dann kann man vom 1000 Dies die eine mm² groß sind, je einen deswegen wegwerfen, bei 10mm² großen Dies ist es einer von 100, beu 100mm² Diesize ist jedes Zehnte Die betroffen und bei 1000mm² wäre dann statitisch jedes Die betroffen. Bei mehr Bearbeitungsschritten dürfte das Risiko steigen, vor allem aber steigt das Risiko, dass eines zu einem Fehler bei einem Schritt kommt und dadurch der Wafer Mull ist. Hast man so einen Fehler im Schnitt alle 10.000 Schritte, dann hat man bei 500 Schritten je 20 Wafer einmal Müll, bei 5000 Schritten dard jeder zweite entsorgt werden und wenn man dann 10.000 Schritte für den Wafer braucht um alle Schichten zu erzeugen, wird es zur Glückssache.

Den Kostenvorteil durch 3D NAND entsteht nicht durch das Stapeln an sich, sondern dadurch, dass du durch die zusätzliche Dimension eine platzsparendere Struktur benutzen kannst.
Nein, die Strukturbreiten sind sogar viel höherm, die Strukturen und damit die Zellen selbst auch viel größer:
figure1.jpg

Damit sollte auch klar sein, das ein weiteres Shrink bei planaren NANDs kaum noch machbar ist, die Elektronen müssen ja jetzt schon fast einzeln gezählt werden und wehen eines geht verloren und bei einer mehr als Verzehnfachung der Anzahl der Elektronen müssen die Zellen entsprechend groß sein.
Mit immer mehr Lagen kannst du da höchstens noch die Kapazität / Chip erhöhen, der Preis / Kapazität hingegen wird relativ konstant bleiben bzw. bei vielen Lagen wieder steigen.
Samsung gibt an, dass der Aufwand bei der Fertigung die Kosten für 3D NAND noch über die von planaren NAND treibt, aber gleichzeitg werden ihnen bei ihren SSDs Margen von 30 bis 40% unterstellt. Was stimmt, kann ich nicht sagen, ebensowenig ob damit Rohmargen gemeint waren, die natürlich in der Größenordnung sein müssen um am Ende noch etwas über zu haben. OCZ hatte damals auch 25 bis 30% Rohmarge, aber am Ende unterm Strich dann doch 10 bis 15% Verlust eingefahren.

HGST greift bei der 10TB Platte mit He-Füllung + SMR ganz tief in die Trickkiste. Die HAMR-Platten nächstes Jahr werden wohl erstmal auf beides verzichten und trotzdem 50% mehr Kapazität bieten.
Schön wäre es! Wobei die Frage ist, was die dann kosten werden.

Da Seagate bereits Prototyp-Platten mit 10k rpm im Testbetrieb hat, die "Enterpise-Anforderungen" erfüllen, gehe ich davon aus, das es solche Einschränkungen nicht geben wird.
Wer weiss, vielleicht ist das ja auch der Grund, warum es bisher nur Prototypen sind ;D

Eines aber haben sie alle gemein, sie bieten bestenfalls die gleiche Datendichte wie NAND-Speicher.
NAND ist eben extrem kompakt, aber vielleicht sind ja auch hier Graphen die Lösung. 8)
 
Das ist aber ein anderes Segment als das von dem ich gesprochen habe
Jep, ich wollte nur zum Ausdruck bringen, dass nicht der ganze Enterprise-Markt auf SSDs wechseln wird.

Graphen scheinen ja wahre Wunder zu können, aber oft lässt sich dann im Alltag doch nicht so viel realisieren wie in der Theorie und im Labor. Schön wäre es, aber warten wir es ab.
Graphen ist in der Tat in vielerlei Hinsicht ein bemerkenswertes Material. An den genannten Eigenschaften gibt es eigentlich keine Zweifel mehr, da sie auch in der Praxis (im Labor) bereits nachgewiesen wurden. Das Hauptproblem derzeit besteht in der Gewinnung des Materials. Die Entdecker haben es noch mittels Graphit aus einem Bleistift und Tesafilm gewonnen (warum bin ich da nicht drauf gekommen, dann hätte ich jetzt auch einen Nobelpreis). In der Großserienfertigung ist das allerdings keine gangbare Methode *lol*. Die möglichen Anwendungsbereiche sind gigantisch und da Kohlenstoff ein sehr häufiges Element auf der Erde ist, sind die Kosten potentiell sehr niedrig.


Nein, die Strukturbreiten sind sogar viel höherm, die Strukturen und damit die Zellen selbst auch viel größer:
Es ist auch nicht die Strukturbreite, auf die ich hinaus wollte. Diese gibt nur den minimalen Abstand an. Bei einem Shrink wird einfach alles kleiner gemacht wodurch mehr Zellen auf ein Die passen. Bei 3D-NAND bleibt die Strukturbreite gleich oder wächst sogar. Trotzdem kann man Platz sparen, da die 3D-Strukturen kompakter gestaltet werden können. Du kriegst also bei gleicher Strukturbreite mit 10-lagigem 3D-NAND sehr viel mehr Zellen unter als auf 10 planaren Lagen. Ich hoffe, es ist irgendwie verständlich was ich sagen will *kopfkratz.

Schön wäre es! Wobei die Frage ist, was die dann kosten werden.
Naja, da mehrmals von der Eignung für Enterprise-Platten geredet wurde, sagt mir mein Gefühl, dass sie die Technik erstmal in diesen Markt bringen und entsprechende Preise verlangen werden.

NAND ist eben extrem kompakt, aber vielleicht sind ja auch hier Graphen die Lösung. 8)
Hehe, man kann Graphen mit entsprechender Dotierung in der Tat zu einem Halbleiter machen. Man löst dadurch aber leider nicht das Problem, dass die Lithographie-Verfahren an ihre Grenzen stoßen. Aber wer weiß, vielleicht werden wir da noch überrascht ;D
 
Zuletzt bearbeitet:
Zurück
Oben Unten