Weil damit die Beispiele zur Erklärung leichter zu rechnen und damit leichter nachvollziehbar sind.
Die Zahl dient übrigens nur zur Verdeutlichung, dass die Ausfallwahrscheinlichkeit rein statistisch sinkt, wenn auf zwei unabhängigen Medien gespeichert wird!
1:100 sagt überhaupt rein gar nix darüber aus, wie hoch die Ausfallwahrscheinlichkeit „eines Geräts“ tatsächlich ist!
Festplattenhersteller geben „MTBF“ oder MTTF" an, üblicherweise mehrere Millionen Stunden. Demnach wäre es recht unwahrscheinlich, dass ein Gerät während seiner Nutzungsdauer überhaupt ausfällt.
Für die Praxis lässt sich eigentlich nichts aus diesen Werten ableiten. Gemäß der berühmten Badewannenkurve fällt ein Gerät sehr schnell oder sehr spät aus. Man muss also mit Ausfällen vom ersten Tag an rechnen und dafür sorgen, dass Geräte nach einer gewissen Betriebsdauer ausgetauscht werden (Was bei Speichermedien ohnehin durch die ständig steigenden Anforderungen an die Speichergröße gegeben sein dürfte).
Wann mit Ausfällen zu rechnen ist, läßt sich natürlich ein Stück weit aus der Erfahrung herleiten, aber viel wichtiger ist ständiges Monitoring der Datenträger: Bei Festplatten gibt es die S.M.A.R.T.-Parameter, zu deren Auswertung es verschiedene Tools gibt.
Ob sowas auch für Speicherkarten & Co. existiert, weiß ich nicht. Bei diesen kündigt sich ein Ausfall ja nicht etwa durch mechanischen Verschleiß an, der aus dem Verlauf diverser Parameter zu erkennen wäre. Eine Speicherkarte, die „gestern noch ging“, ist halt von jetzt auf gleich kaputt.
Gruß,
Kannitverstan
der in 25 Jahren Computernutzung erst eine Festplatte durch Elektronikschaden verloren hat (selber schuld gewesen), aber schon zwei SD-Karten beerdigen musste. Während sich die Daten der Platte noch retten ließen, waren die der SD-Karten trotz professionellem Dienstleister futsch.