Solid State Drives (SSD) haben sich als Standard in Notebooks und Workstations etabliert: Sie sind schnell, leise und energieeffizient. Für langfristige Archivierung kritischer Daten sind sie jedoch nur bedingt geeignet. Wer Familienfotos, Forschungsdaten, Kundenakten oder Forensik-Daten über viele Jahre sicher aufbewahren will, sollte die technischen Grenzen von SSD genau kennen.
SSD vs. HDD: Unterschiedliche Speicherprinzipien, unterschiedliche Risiken
Klassische Festplatten (HDD) speichern Informationen magnetisch auf rotierenden Scheiben. Solange der magnetische Layer nicht korrodiert und die Festplatte sachgerecht gelagert wird, können Daten über viele Jahre bis hin zu Jahrzehnten lesbar bleiben. Hauptgefahren sind mechanischer Verschleiß, Stöße, Feuchtigkeit und Probleme beim Wiederanlauf nach langer Standzeit.
SSDs speichern Daten in NAND-Flash-Zellen, indem sie elektrische Ladung in sogenannten Floating-Gates oder Charge Traps einschließen. Diese Speicherzellen sind zwar nichtflüchtig, verlieren aber mit der Zeit Ladung durch Leckströme und elektrische Drift. Ohne Stromversorgung wird dieser Effekt nicht kompensiert, was langfristig zu schleichender Datenkorruption führen kann.
Wie lange halten Daten auf einer SSD ohne Strom?
Branchenstandards wie JEDEC JESD218/JESD219 und Herstellerangaben definieren nur Richtwerte für die sogenannte Data Retention. Sie beziehen sich meist auf typische Lagertemperaturen um 25 °C und vorausgesetzte Restlebensdauer des Flash (also nicht kurz vor Erreichen der Schreibzyklen-Grenze).
QLC- und TLC-NAND in Consumer-SSDs
QLC-NAND (4 Bit pro Zelle) wird in besonders günstigen und hochkapazitiven SSDs eingesetzt. Hier liegt die garantierte Datenerhaltung laut typischen Spezifikationen häufig bei rund einem Jahr ohne Stromversorgung. In der Praxis erreichen moderne Controller und Fehlerkorrekturverfahren (ECC) oft 2–3 Jahre, garantieren lässt sich dies aber nicht.
TLC-NAND (3 Bit pro Zelle), heute der Standard im Consumer-Bereich, bietet eine etwas höhere Reserve. Unter optimalen Lagerbedingungen sind in der Regel bis zu etwa 3 Jahre realistisch, bevor das Risiko nicht korrigierbarer Bitfehler deutlich steigt. Höhere Temperaturen, starke Temperaturschwankungen oder bereits stark beanspruchter Flash verkürzen diese Zeitspanne beträchtlich.
MLC- und SLC-NAND für industrielle Anwendungen
MLC-NAND (2 Bit pro Zelle) weist eine robustere Ladungstrennung auf und ist oft für etwa 5 Jahre Datenerhaltung ohne Strom spezifiziert.
SLC-NAND (1 Bit pro Zelle), wie er in industriellen, militärischen oder spezialisierten Storage-Systemen eingesetzt wird, kann Daten bei kontrollierten Umweltbedingungen 10 Jahre und länger speichern. Diese Speicherlösungen sind jedoch deutlich teurer und im Massenmarkt kaum verbreitet.
Entscheidend ist: Alle genannten Zahlen sind Modellannahmen. Steigende Temperatur beschleunigt den Ladungsverlust exponentiell. Schon Lagerung in sehr warmen Räumen oder Dachböden kann die Data Retention drastisch reduzieren.
Warum Consumer-SSDs als „Schubladenarchiv“ problematisch sind
Die meisten Endkunden-SSDs setzen auf TLC oder QLC-NAND. Wird ein solches Laufwerk einmalig beschrieben und anschließend mehrere Jahre ungenutzt im Schrank gelagert, steigt die Wahrscheinlichkeit, dass bei der nächsten Inbetriebnahme nicht korrigierbare Datenfehler auftreten.
Im Extremfall erkennt der SSD-Controller zu viele defekte Blöcke: Teile des Dateisystems oder ganze Bereiche werden unlesbar. Für Privatpersonen kann dies den Verlust eines kompletten Foto- und Videoarchivs bedeuten; für Unternehmen, Fotografen, Labore oder Anwaltskanzleien den Ausfall von beweisrelevanten oder geschäftskritischen Informationen – ein erhebliches Risiko aus Sicht der Cybersicherheit und Compliance.
Wann SSD-Archivierung besonders riskant ist
Besonders kritisch sind Szenarien, in denen SSDs als passive Archivmedien dienen: etwa externe SSDs mit Langzeit-Backups, die nach dem Backup physisch getrennt und jahrelang nicht mehr angeschlossen werden. Anders als im laufenden System finden keine Refresh- oder Rewriting-Prozesse statt, die marginal geschädigte Zellen rechtzeitig neu beschreiben könnten.
In typischen Desktop- oder Notebook-Szenarien ist das Risiko deutlich geringer: Das System wird regelmäßig eingeschaltet, der Controller aktualisiert interne Strukturen, und Fehler werden meist früh erkannt. Hier sind Stromspitzen, Netzteildefekte, Malware oder Ransomware weitaus relevantere Ursachen für Datenverlust.
Begrenzter Schreibzyklus: Verschleiß als zusätzlicher Risikofaktor
NAND-Flash besitzt einen begrenzten P/E-Zyklus (Program/Erase-Zyklen). Je nach NAND-Typ und Qualität sprechen Hersteller von einigen Hundert (QLC) bis mehreren Tausend Zyklen (MLC/SLC). Mit zunehmender Zahl an Schreibvorgängen steigt der Verschleiß: Zellen werden instabiler, Fehlerraten und das Risiko plötzlicher Ausfälle wachsen.
Controller nutzen Wear-Leveling-Algorithmen, um Schreiblast gleichmäßig über alle Zellen zu verteilen. Physikalische Grenzen können sie jedoch nicht aufheben. Für die Praxis bedeutet das: Kritische Daten sollten niemals nur auf einem einzelnen, stark genutzten SSD-Laufwerk liegen. Aus Sicht der Cyber-Resilienz ist ein einzelnes Speichermedium immer ein Single Point of Failure.
Best Practices: 3-2-1-Backup-Regel und geeignete Archivmedien
Robuste Datensicherheit basiert nicht auf dem „perfekten“ Medium, sondern auf einer soliden Backup-Strategie. Bewährt hat sich die international empfohlene 3-2-1-Backup-Regel:
3 Kopien der Daten: eine produktive Version und mindestens zwei Backups.
2 unterschiedliche Medientypen: zum Beispiel SSD für das Live-System und HDD oder Bandlaufwerk (Tape) für das Archiv.
1 Kopie an einem anderen Ort: etwa in einem Rechenzentrum, Cloud-Speicher oder einem zweiten Bürostandort, um Brand, Diebstahl oder Wasserschäden abzufangen.
In der Praxis hat sich ein Aufbau bewährt, bei dem die SSD für Performance sorgt (Betriebssystem, laufende Projekte), während ein NAS mit HDDs die lokale Sicherung übernimmt. Ergänzend kann ein Cloud- oder Offsite-Backup eingesetzt werden. Für besonders langfristige, regulatorisch relevante Archive sind HDD oder Tape den meisten Consumer-SSDs überlegen, sofern die Datenträger korrekt gelagert und regelmäßig überprüft werden.
Um sich zusätzlich gegen moderne Bedrohungen wie Ransomware zu schützen, sollten Organisationen auf immutable Backups (unveränderbare Sicherungen), Verschlüsselung, regelmäßige Restore-Tests und Integritätsprüfungen (z. B. Checksums, Scrubbing) setzen. Langzeitarchive sollten in mehrjährigen Abständen auf neue Medien migriert werden, um Alterungseffekte und Obsoleszenz zu minimieren.
Wer SSDs gezielt einsetzt – für Performance im Alltag, nicht als einziges Langzeitarchiv – und gleichzeitig eine konsequente 3-2-1-Backup-Strategie umsetzt, reduziert das Risiko irreversibler Datenverluste erheblich. Es lohnt sich, vorhandene Backup-Konzepte zeitnah zu überprüfen, Speichermedien bewusst zu wählen und insbesondere vermeintlich „sichere“ Schubladen-SSDs kritisch zu hinterfragen.