SSD am limit der Lebensdauer (...und drüber hinaus)

Hi,
soweit ich mich in das Thema einlesen konnte, werden bei SSDs Zellen, welche ihr max. an schreibzyklen erreicht haben NICHT mehr beschrieben, sondern als „read-only“ vom Controller betrachtet. Von OS auch?

Damit die Gesamtkapazität weiterhin zur Verfügung steht werden „neue“ Zellen aus dem Over Provisioning verwendet.

Laut Herstellerangaben soll dies etwa 10 Jahre gut gehen und die SSD dann „verbraucht“ sein. Ich denke es liegen noch nicht allzuviele Testberichte vor wie sich so ein Zustand dann auf den Endverbraucher auswirkt, oder?

Daher würde ich gerne fragen, ob Jemand von euch dazu bereits Qellen finden konnte?
Bekomme ich dann „nur“ Schreibfehler und kann meine Daten, die sich zu diesem Zeitpunkt auf der SSD befinden ganz sicher auf andere Datenträger kopieren?

Im optimalfall stelle ich mir das ganze wie folgt vor (Hypothese):
Das OS bootet nicht mehr, da selbst beim Booten kleinigkeiten geschrieben werden müssen. Stecke ich die SSD jedoch in ein externes Laufwerk, so kann ich diese ohne spezielle Software problemlos auslesen.
Des Weiteren kann ich die SSD nun in den Schrank legen und die gerade auf dem Datenträger befindlichen Dateien sind auf „ewig“ sicher und können erneut gelesen werden.

Stimmt das so? Werde ich sogar kurz vorher gewarnt? (Stichwort S.M.A.R.T)

Grüße Oekel

Hallo,
welche ihr max. an schreibzyklen erreicht haben NICHT

mehr beschrieben, sondern als „read-only“ vom Controller
betrachtet. Von OS auch?

Diese max. Anzahl an Schreibzyklen werden kaum ein Problem sein, ausser du beschreibst die SSD andauernd. Beim normalen Betrieb wird das über 10 Jahre dauern. (Wer hat eine 10 Jahre alte Festplatte in Betrieb?)

Im optimalfall stelle ich mir das ganze wie folgt vor
(Hypothese):

Stecke ich die SSD jedoch in ein

externes Laufwerk, so kann ich diese ohne spezielle Software
problemlos auslesen.

So genau kann das wohl kaum jemand in der Praxis sagen, mangels einer SSD im „Read only Status“

Des Weiteren kann ich die SSD nun in den Schrank legen und die
gerade auf dem Datenträger befindlichen Dateien sind auf
„ewig“ sicher und können erneut gelesen werden.

Stimmt das so? Werde ich sogar kurz vorher gewarnt? (Stichwort
S.M.A.R.T)

Je nach Hersteller werden mehr oder weniger S.M.A.R.T Werte ausgelesen und für eine Einschätzung des Zustandes ausgewertet.

Als Beispiel möchte ich meine gut 6 Monate alte Samsung 840 mit 120 GB nehmen. Die hat TLC Speicher, also 3 Bit pro Zelle und kann laut Hersteller bis zu 1000 mal beschrieben werden.
SMART Werte: Eingeschaltete Stunden 535, Geschrieben 384 GB, verbrauchte Zyklen 3. Selbst wenn ich ein vielfaches meiner momentanen Nutzung schreiben würde werde ich den „Read only Status“ nie erreichen.

Gruß vonsales

Ich hatte gehofft, dass sich Jemand zu Wort meldet, der irgendwo in der Entwicklung von SSDs sitzt bzw. dessen Controllern.

Grüße Oekel

Das ich in der Realität wohl nie an diese Grenze stoßen werde halte ich für ein Gerücht. Bislang habe ich Festplatten immer erst entsorgt, wenn ein Defekt vorlag. Und es würde mein Gewissen enorm berühigen, wenn dieser „read only“ Status EXISTIERT, da implementiert. (Könnte mir ähnlich wie beim Jahr 2000 Problem vorstellen, dass einige Hersteller dies einfach ignorieren und was passiert dann genau?

Btw.: Es ist zwar noch nie vorgekommen, aber was wäre, wenn ich einen extrem abressiven Virus auf dem Rechner hätte? Würde sich so einer derzeit über meine Daten hermachen würde ich deutliche Geräusche von meiner Festplatte warnehmen. (Ähnlich auch, wenn sich weitere Personen übers Netzwerk einloggen und auf meinen Daten arbeiten)
Kommt die SSD zum Einsatz, wäre diese „Warnung“ dahin un ich garantiere dir, dass ein Programm im Hintergrund (Virus oder nicht) ganz schnell die Schreibzyklen verbraucht. Ich weiß, sehr viel Schwarzmalerei, aber lassen wir uns doch bitte Mal auf dieses Gedankenexperiment ein!!

Hallo,
meine persönliche Erfahrung ist, dass nach starker Nutzung, auch unter Beachtung der vom Hersteller empfohlenen Deaktivierungen, meiner Samsung SSD 830 bereits nach weniger als einem Jahr in einen Art Notbetrieb überging. Auf der SSD befanden sich dabei nur die Betriebssystem- und die Programminstallationen. Es konnte nur noch mit einer Rate von ca. 7 MB/s auf diesen Datenträger geschrieben werden - ein Datenverlust trat aber nicht auf: Bei anderen SSD wird es ähnlich sein, da sie doch zumindest gleichartige Technologien verwenden. Nach dem Defekt der Samsung hat mir der Händler eine corsair SSD als Austausch geliefert. Hier habe ich, als gebranntes Kind, einmal näher hingeschaut und mit Erstauen festgestellt, dass bei intensiver Nutzung meines Rechners allein durch den Google-Browser soviel Schreibarbeit anfällt, dass die SSD bereits nach weniger als 3 Jahren ihren Geist aufgeben wird, wenn man die Spezifikationen des Hersteller zugrunde legt. Daraufhin habe ich diese Operationen auf eine Festplatte ausgelagert, was natürlich zum Wohl der SSD (zumindest bis heute, knapp ein Jahr) aber zur Verringerung der Performance führt.

Meines Wissens hat sich noch nie ein Entwickler von SSDs (oder anderer Hard- oder Software) bei w- w-w zu Wort gemeldet - eigentlich schade. Hie kommt aber in der Regel die Hilfe von qualifizierte Anwendern, die sich alltäglich mit den von den Entwicklern bisher nicht beherrschten Problemen auseinandersetzen müssen und über entsprechende Erfahrung verfügen, ob als Dienstleister, oder als ambitionierte Privatpersonen.

LG Culles

Ist das denn relevant?
Hallo Oekel,

sowohl bei HDDs als auch bei SSD kann von einem auf dem nächsten Moment der Totalausfall erfolgen. Auch sagt die Erfahrung, dass S.M.A.R.T. nicht als zuverlässige Vorwarnung betrachtet werden kann.
Deine Idee, dass man ja die Daten noch wie von einer DVD-ROM lesen, bloß nicht überschreiben könnte, ist reines Wunschdenken und spielt in der Praxis keine Rolle.
Die wenigsten Plattenausfälle verhalten sich vorhersagbar. In sofern ist die Aussage einer Lebensdauer von 10 Jahren bei der SSD einfach nur Mumpitz - zumal es sehr viele Berichte über SSDs gibt, die nicht mal das erste Jahr überlebt haben. Augenblicklich scheint die Lebensdauer in der Praxis noch unter der von HDDs zu liegen.

Also musst Du in jedem Fall ein ordentliches Sicherungskonzept entwickeln, welches mindestens aus Sicherungen auf weitere Medien besteht. Bei einigen Anwendungsfällen ist auch RAID zu empfehlen.

Ciao, Allesquatsch

Daraufhin habe ich diese Operationen auf eine
Festplatte ausgelagert, was natürlich zum Wohl der SSD
(zumindest bis heute, knapp ein Jahr) aber zur Verringerung
der Performance führt.

Hallo Culles,

werde die Tage auch etwas experimentieren. Vor einer halben Stunde habe ich einen neuen Rechner zusammengebaut und kurz angetestet. Betriebssystem ist allerdings noch nicht darauf, da ich noch am Überlegen bin, wie ich die Aufteilung mache. UEFI oder BIOS ist eine weitere Fragestellung.
Wahrscheinlich baue ich eine 2,5" Platte ein, auf die ich dann alles an Daten verlagere.
Allerdings ist die SSD für mich nur für einen schnellen Systemstart von Bedeutung.

Noch eleganter als eine Extraplatte wäre der Einsatz einer RAM-Disk, die ich ohnehin für einen bestimmten Einsatzzweck benötige. Die anderen Dinge werden dann auf eine NAS verlagert.
Hier ist dann nur die Frage, ob die temporären Internetdateien auf die RAM-Disk verlagert werden können. Hängt halt davon an, in welcher zeitlichen Abfolge die Dinge beim Hochfahren bereitstehen bzw. benötigt werden.
Leider ist das Konzept mit den RAM-Disk nicht mehr so gebräuchlich und die Preisentwicklung begünstigt das auch nicht. War nach der Flutkatastrophe in Thailand praktisch: Festplatten waren sauteuer und RAM günstig. Jetzt hat sich der Trend umgekehrt.

Ciao, Allesquatsch

Nicht zum Thema:

Festplatten waren sauteuer und RAM günstig. Jetzt hat sich der
Trend umgekehrt.

Nein, noch nicht wirklich. Ich habe meine letzte günstige HD (2TB) vor 2 Jahren für 55€ (incl. Versand und MwSt) gekauft. Wenige Monate später gabts dann die Panne beim Motorenhersteller für HDs und ich musste 120€ für genau die gleiche HD bezahlen. Es hat sich zwar schon wieder etwas gebessert, doch an dem Tiefpunkt von vor 2 Jahren sind wir immer noch nicht angekommen. SSDs sind deutlich gesunken, da gebe ich dir recht.

meine persönliche Erfahrung ist, dass nach starker Nutzung,
auch unter Beachtung der vom Hersteller empfohlenen
Deaktivierungen, meiner Samsung SSD 830 bereits nach weniger
als einem Jahr in einen Art Notbetrieb überging.

Ein starker Performanceeinbruch schon nach geringer Nutzungsintensität ist eine Kinderkrankheit der SSD-Technologie, die eigentlich mittlerweile überwunden sein sollte. Allerdings muss der Hersteller die entspr. Logik sauber umgesetzt haben - und das Betriebssystem muss mitspielen.

Dieser Einbruch hat aber nichts mit dem von Oekel beschriebenen Problem zu tun, dass Zellen ihre max. Lebensdauer erreicht haben, sondern beruht darauf, dass im Gegensatz zur klassischen Festplatte ein bereits beschriebener Bereich nicht einfach überschrieben werden kann, sondern zunächst geleert werden muss. Für die SSD 830 werden bei fehlendem TRIM Einbrüche berichtet, die deine 7 MB/s zum Teil noch deutlich unterbieten. Das fällt bis auf

Hallo Oekel,

Des Weiteren kann ich die SSD nun in den Schrank legen und die
gerade auf dem Datenträger befindlichen Dateien sind auf
„ewig“ sicher und können erneut gelesen werden.

Das funktioniert sowieso nicht, nach 10-100 Jahren hat auch „gesunder“ FLASH-Speicher seine Daten verloren.

Fangen wir mal bei der Speichertechnik an:
http://de.wikipedia.org/wiki/Floating_Gate

Wie jetzt alle lesen konnten, basiert das Ganze auf quantenmechanischen Effekten und die Quantenmechanik macht vor allem statistische Aussagen und keine über z.B. ein einzelnes Elektron.

Noch ein kleines Bild, wie das gemeint ist:
Wenn wir einen Fischschwarm betrachten, können wir recht einfach feststellen mit welcher Geschwindigkeit sich dieser in ein bestimmte Richtung bewegt.
Daraus lassen sich aber keine Aussagen über die Bewegung eines einzelnen Fisches ableiten. Der kann zeitweise schneller oder langsamer als der Schwarm sein und sich auch zeitweise in eine ganz andere Richtung bewegen.

Elektronen verhalten sich auch so. Die Geschwindigkeit mit welcher sich der Elektronen-Schwarm bewegt nennen wir Spannung, ein einzelnes Elektron, kann aber zeitweise eine höhere oder niedrigere Spannung haben oder sogar eine andere Polarität, als die Wolke.

Einzelne Elektronen, welche einiges schneller sind als der Durchschnitt, nennt man „heisse Elektronen“, und wenn die Parameter stimmen, sind es auch diese welche durch die Isolationsschicht tunneln.

Und nun zu den praktischen Problemen.

Auch die Elektronenwolke auf dem Floating Gate enthält heisse Elektronen, dadurch hüpft, auch wenn der Baustein im Schrank liegt, ab und zu mal ein Elektron vom Floating Gate. Mit den Jahrzenten geht also die gespeicherte Information verloren.

Das Problem er Alterung der Speicherzellen, kommt hauptsächlich dadurch zu Stande, dass die heissen Elektronen, beim Tunneln, auch eine Ionenwanderung bewirken. Es werden also einzelne Atome aus dem Leiter in die Isolationsschicht eingeschleppt. Ganz am Ende dieses Prozesses bilden die Fremdatome dann einen Kurzschluss und die Speicherzelle ist ganz unbrauchbar.
Vorher wird die Zelle aber langsam schlechter, hauptsächlich hält sie die Daten nicht mehr so lange wie am Anfang.

Beim Beschreiben einer Speicherzelle, wird diese zuerst gelöscht und nachher wird das Floating Gate entsprechend geladen oder auch nicht. Löschen (entladen) muss man die Zelle, weil man nicht weiss wie viele Elektronen auf das Gate getunnelt sind, das passiert ja laufend, auch wenn der Speicher im Schrank liegt, dadurch hat man bekannte Anfangsbedingungen.
Ein Schreibvorgang besteht also aus 1 oder 2 Tunnelvorgängen, bei welchen jedes mal der Isolator verschlechtert wird.

In den 80er Jahren konnten EPROMs und EAROMs etwa 100 mal beschrieben werden, bis sie kaputt waren.
Die ersten FLASH-Speicher konnten dann um die 10’000 Zyklen überleben, heute liegt man im Bereich von 100’000 bis 1’000’000 Zyklen.
Mal sehen, was in 10 Jahren möglich ist?

Der SSD-Controller verlängert nun die Lebensdauer der ganzen SSD indem die Zellen so verwaltet werden, dass möglichst alle gleichmässig abgenutzt werden.
Ein Problem ist dabei noch, dass heutiger FLASH-Speicher immer nur Blockweise gelöscht werden kann, meist sind die Blöcke 512 Byte bis einige KByte gross. Die Blockgrösse hat einen grossen Einfluss auf die benötigte Chipfläche und somit auch direkt auf den Preis des Speichers.

So, ich hoffe, das jetzt auch die letzten Klarheiten beseitigt sind :wink:

MfG Peter(TOO)

Also musst Du in jedem Fall ein ordentliches Sicherungskonzept
entwickeln, welches mindestens aus Sicherungen auf weitere
Medien besteht. Bei einigen Anwendungsfällen ist auch RAID zu
empfehlen.

Das ist defakto mein Stand. Also Backups + Raid.
Ich hatte aufgrund der Werbesprüche die kleine Hoffnung, dass zumindest bei der SSD fürs OS eine Sicherung zukünftig überflüssig wird. Schade eigentlich. Alles weitere hat der Vorredner ja schon erklärt.

…für die gute Aufklärung. Einiges davon kannte ich noch aus meinem Studium. Doch vieles vergisst man wieder und ich bin wirklich froh, dass du dieses im Zusammenhang noch Mal aufgreifen konntest.

Leider sind damit meine Hoffnung an die SSD etwas geschwunden.
Naja, dann warte ich noch mal den Preissturz bei den TLCs ab und tausche erst dann mein Raid gegen eine SSD fürs OS.

Grüße Oekel

Hallo Allesquatsch,

sowohl bei HDDs als auch bei SSD kann von einem auf dem
nächsten Moment der Totalausfall erfolgen. Auch sagt die
Erfahrung, dass S.M.A.R.T. nicht als zuverlässige Vorwarnung
betrachtet werden kann.

S.M.A.R.T. kann nur einigermassen Vorhersagen machen, was die Abnutzung der Plattenoberfläche und den Kopfantrieb betrifft.

Ein plötzliches versagen, der Elektronik oder der Spindel kann S.M.A.R.T. nicht vorhersagen. Hie hat S.M.A.R.T. keine bessere Aussage als jeder einfache Betriebsstundenzähler.

In sofern ist die Aussage einer Lebensdauer von 10 Jahren bei der
SSD einfach nur Mumpitz - zumal es sehr viele Berichte über
SSDs gibt, die nicht mal das erste Jahr überlebt haben.

Naja, di Jahre sind eine Hochrechnung.
Praktisch kann man die statistische Lebenserwartung bezogen auf die Schreibzyklen vorhersagen. Wenn man dann irgendwelche Betriebsbedingungen hernimmt, kann man das in Jahre umrechnen. Sind die Bedingungen in einem bestimmten Fall anders, stimmen natürlich die Jahre auch nicht mehr!

Und wie das mit der Statistik nun mal ist, auf den Einzelfall, kann sie keine Aussagen machen!

Also musst Du in jedem Fall ein ordentliches Sicherungskonzept
entwickeln, welches mindestens aus Sicherungen auf weitere
Medien besteht. Bei einigen Anwendungsfällen ist auch RAID zu
empfehlen.

Für die Praxis muss man immer davon ausgehen, dass ein Ausfall in den nächsten 5 Minuten sein kann.

MfG Peter(TOO)

nachtrag
Hallo Allesquatsch,

Die statistischen Angaben sind eigentlich nur für den Hersteller, Händler und grosse Betriebe relevant.
Damit kann man abschätzen bei welchem Verkaufspreis man überhaupt in die Gewinnzone kommt. Der Aufwand für Garantieleistungen müssen ja vom Gewinn abgezogen werden.

Eine Firma, welche viele PCs betreut, kann damit den Unterhalt-Aufwand abschätzen, welche durch Ausfälle entsteht.

Ich hatte auch schon Festplattenausfälle neuer Laufwerke, 5 Minuten nachdem alles wieder eingerichtet war :frowning:
Auch wenn der MTFB einige 10’000h betragen hat.

Das ist wie beim Lotto, die Wahrscheinlichkeit ist recht gering und trotzdem trifft es immer wieder einen, der 6 Richtige mit Zusatzzahl hat.

MfG Peter(TOO)

Hallo,

man kann sich die reale Reaktion von SSD auf übermäßige Belastung auch hier ansehen: http://www.xtremesystems.org/forums/showthread.php?2…

Insgesamt haben die Poster hier schon recht: ohne Backup geht es so oder so nicht.

Und wenn ich die Schreibvolumen aus dem Thread mit meinem aktuellen Durchsatz vergleiche sollte zumindest bei mir die SSD sehr lange halten.

Mit freundlichen Grüßen,

Festplatten waren sauteuer und RAM günstig. Jetzt hat sich der
Trend umgekehrt.

Es hat sich zwar schon wieder etwas
gebessert, doch an dem Tiefpunkt von vor 2 Jahren sind wir
immer noch nicht angekommen. SSDs sind deutlich gesunken, da
gebe ich dir recht.

Missverständnis: Ich meinte RAM. Das war in der Hochpreisphase der Festplatten sehr günstig zu haben und steigt nun im Preis, während sich die HDDs wieder in Richtung altem Preisniveau bewegen.
Dass die alten Preise wieder erreicht werden, ist unwahrscheinlich. Schließlich war dieses Preisniveau ein Ergebnis von Überkapazitäten, die jetzt verschwunden sind.

Ciao, Allesquatsch

Hallo,

Festplatten haben etwas gemeinsames mit Kirschen: Ist der Preis aufgrund einer Natureinwirkung einmal hoch, so bleibt es erstmals dabei; nur allmählich bewegt er sich langsam nach unten. Die Natur wird eben schonungslos ausgenutzt, denn für ein derartiges Ereignis hat ja jeder ein Verständnis.
Festplatten und Kirschen haben aber dennoch zumindest einen Unterschied: Überkapazitäten landen im ersten Fall auf dem Kompost und im zweiten entstehen sie erst gar nicht. Dann kommt aber wieder die Gemeinsamkeit: Durch beide Verfahren erzielt man einen Preis auf einem überhöhten Niveau,

LG Culles

Festplatten und Kirschen haben aber dennoch zumindest einen
Unterschied: Überkapazitäten landen im ersten Fall auf dem
Kompost und im zweiten entstehen sie erst gar nicht.

Täusche Dich da mal nicht. Die Festplattenherstellung ist ein sehr konjunkturabhängiges Geschäft, dass dann einen deutlichen Knacks bekam, als der Niedergang des klassischen Desktops einsetzte. Kein Wunder, dass nur noch zwei, drei Hersteller überlebt haben.
Für Tablets und Smartphones braucht’s halt weniger Festplatten.
In sofern war die Flutkatastrophe die „Rettung“ für die Hersteller.

Beim RAM läuft das weiterhin sehr zyklisch ab. Das läuft schon seit Jahrzehnten so: Radikale Preisstürze und dann wieder ansteigende Preise. Eigentlich ein typischer Schweinezyklus. Pech nur, wenn man gerade halt einen neuen Rechner braucht.

Ciao, Allesquatsch