Frisch formatierten Datenträger unter Windows überprüfen

Hi,

meine Frage wäre, ob der Prozess der Überprüfung (dern nun schon einige Std. läuft) überhaupt Sinn macht?

Betriebsystem: Win7
NTFS Formatiert
Daten : keine

[x] fehlerhafte Sektoren suchen und wiederherstellen.

Macht diese Überprüfung also bei einer leeren Platte Sinn?
Und dann die gleiche Frage noch mal, wenn wir davon ausgehen, dass die HDD „schnellformatiert“ wurde oder eben nicht.

Grüße Oekel

Hallo,

irgendwie scheint Deine HDD ein Problem zu haben, ich würde mir angesichts der neidrigen Preise eine neue HDD besorgen. Stell Dir vor Du hättest alles fertig eingerichtet und dann geht die Platte kaputt hmm nicht so gut … viel Zeit und Arbeit.

Ich persönlcih arbeite mit zwei physikalischen Platten, C und D. Auf C ist nur das Betriebssystem und die Programme. Auf D: sind die reinen Daten. Somit kannst Du jederzeit das Betriebsystem neu installieren, auch ein Defekt der C-Platte läßt Dich dann kalt. Die Wahrscheinlichkeit, dass beide platten defekt gehen, ist eher sehr gering

Viel Glück

Jürgen

Hallo Oekel,

meine Frage wäre, ob der Prozess der Überprüfung (dern nun
schon einige Std. läuft) überhaupt Sinn macht?

Tja, das kommt drauf an.

Also, praktisch ist es nicht möglich, Platten zu beschichten, welche dann 100% fehlerfrei sind.

Früher, als die Laufwerkselektronik noch „dumm“ war, bekam man zum Laufwerk eine Liste mit den defekten Sektoren. Diese musste man dann bei der Formatierung angeben und sie wurden als unbrauchbar markiert. Bei defekten Sektoren konnten entweder einzelne Bits gar nicht geschrieben werden oder die Magnetisierung war entsprechend schwach, sodass der Sektor nicht jedesmal fehlerfrei gelesen werden kann.

Seit IDE haben die Laufwerke einen eigenen MicroController an Board, welcher einiges möglich macht. z.B. wurde dadurch S.M.A.R.T. eingeführt.
http://de.wikipedia.org/wiki/Self-Monitoring,_Analys…
Seither haben Festplatten Reservespuren und das Laufwerk ersetzt defekte Sektoren automatisch mit diesen Reservespuren und dies normalerweise schon bevor die Daten verloren gehen.

Somit dürfen aktuelle Festplatten keine defekten Sektoren aufweisen. Wenn es defekte Sektoren gibt, bedeutet es, dass die Reservespuren aufgebraucht sind und die Festplatte kurz vor dem Ausfall steht!

Das bis hier geschriebene betrifft die Low Level Formatierung, welche es bei aktuellen Festplatten nicht mehr gibt.

Ein logischer Sektor besteht bei PCs meistens aus 512 Bytes, welche alle frei beschrieben werden können.
Intern belegt ein solcher Sektor aber zusätzliche Informationen:

  • Zuerst gibt es einen Header mit der Spur-, Kopf- und Sektornummer. Damit man den richtigen Sektor finden und auch mechanische Positionierfehler erkennen kann.
    Die Informationen im Header sind dann noch mit Prüfsummen, meist ECC, geschützt um Lesefehler erkennen zu können.
    http://de.wikipedia.org/wiki/Fehlerkorrekturverfahren

  • Beim Schreiben muss also zuerst der Header gelesen und ausgewertet werden und dann der Kopf vom Lese- in den Schreibbetrieb umgeschaltet werden. Deshalb liegt zwischen dem Ende des Haeders und dem Beginn der eigentlichen Daten noch eine Lücke.

  • Der Datenblock ist dann wieder mit ECC geschützt.

Diese Informationen wurden früher bei der Low Level Formatierung aufgebracht, heute geht dies nur noch im Werk bei der Herstellung.

Bei der normalen Formatierung werden die Tabellen für die Dateiverwaltung geschrieben, welche aber normale Daten sind, welche in den 512 Byte abgelegt werden.

Beim Schnellformatieren, werden nur die Verwaltungstabellen neu auf die Platte geschrieben, alle anderen Sektoren behalten ihren Inhalt.

Bei der gründlichen Formatierung werden zusätzlich alle unbenutzten Sektoren mit einem festen Wert gefüllt.

Macht diese Überprüfung also bei einer leeren Platte Sinn?
Und dann die gleiche Frage noch mal, wenn wir davon ausgehen,
dass die HDD „schnellformatiert“ wurde oder eben nicht.

Wenn du also sicher gehen willst, dass man dir kein faules Ei angedreht hat, musst du die gründliche Überprüfung durchlaufen lassen. Auch wenn du den Angaben von S.M.A.R.T. nicht vertraust, musst du diese Prüfung durchlaufen lassen

Allerdings wird dabei nur überprüft ob alle Sektoren schreib-/lesbar sind, es wird nicht überprüft ob die Inhalte fehlerfrei sind.

Die Überprüfung der logischen Dateistruktur wird mit CHKDSK gemacht.

MfG Peter(TOO)

Hei!

Somit dürfen aktuelle Festplatten keine defekten Sektoren
aufweisen. Wenn es defekte Sektoren gibt, bedeutet es, dass
die Reservespuren aufgebraucht sind und die Festplatte kurz
vor dem Ausfall steht!

Wie kommst du darauf?
Was hat denn die Zahl der defekten Sektoren mit der vorraussichtlichen Lebensdauer zu tun?

Selbst wenn eine Million Sektoren den Löffel abgeben, kann der Rest durchaus noch Jahrzehnte lang durchhalten.

Wir haben hier eine olle USB-Platte, die irgendwann füchterlich rumgezickt hat. Checkdisk hat 1,7 Millionen defekte Sektoren moniert und nach alter Väter Sitte als unbenutzbar markiert. Na und? Bei einer Clustergröße von 4k sind 1,7 Mio. defekte Sektoren nur eine handvoll GB, was bei einer 500er Platte am Rande der Bemerkbarkeit liegt.
Besagte Platte rotiert jetzt seit knapp 3 1/2 Jahren wöchentlich durch die Belegschaft, weil ich damit die Filme verteile, und hat in dieser Zeit keinerlei Probleme mehr gemacht.

lg, mabuse

Hallo mabuse,

Somit dürfen aktuelle Festplatten keine defekten Sektoren
aufweisen. Wenn es defekte Sektoren gibt, bedeutet es, dass
die Reservespuren aufgebraucht sind und die Festplatte kurz
vor dem Ausfall steht!

Wie kommst du darauf?

http://static.googleusercontent.com/media/research.g…
Kapitel „3.5.1 Scan Errors“ und „3.5.2 Reallocation Counts“

Was hat denn die Zahl der defekten Sektoren mit der
vorraussichtlichen Lebensdauer zu tun?

Es geht nicht um die Initiale Zahl der defekten Sektoren, sondern um die Zunahme der defekten Sektoren im Betrieb.

Diese defekten Sektoren entstehen meistens durch kleine Kopfaufsetzer im Betrieb oder beim Transport. Ein Kopfaufsetzer ist meist kein einzelnes Ereignis, sondern der Kopf springt einige Male, wie ein Ball. Dabei entstehen auch entsprechende Dellen in der Beschichtung. Bei weiteren Überflügen des Kopfes über diese Dellen, wird der Kopf jedes mal etwas in Schwingung versetzt. Dies wiederum erzeugt eine etwas höhere mechanische Belastung.

Bei den Aufsetzern entstehen kleine Kratzer und Ablagerungen am Kopf und es werden Partikel frei gesetzt. Beides Dinge, welche die Lebensdauer verringern.

Die Kopfaufsetzer können durch externe Erschütterungen ausgelöst werden, aber gegen Ende der Lebenszeit auch durch Verschleiss und dadurch zusätzliches mechanisches Spiel beim Kopfantrieb.

Wir haben hier eine olle USB-Platte, die irgendwann
füchterlich rumgezickt hat. Checkdisk hat 1,7 Millionen
defekte Sektoren moniert und nach alter Väter Sitte als
unbenutzbar markiert. Na und? Bei einer Clustergröße von 4k
sind 1,7 Mio. defekte Sektoren nur eine handvoll GB, was bei
einer 500er Platte am Rande der Bemerkbarkeit liegt.
Besagte Platte rotiert jetzt seit knapp 3 1/2 Jahren
wöchentlich durch die Belegschaft, weil ich damit die Filme
verteile, und hat in dieser Zeit keinerlei Probleme mehr
gemacht.

Mit einer einzelnen Festplatte kann man keine Statistik begründen :wink:

MfG Peter(TOO)

Morgähn!

http://static.googleusercontent.com/media/research.g…
Kapitel „3.5.1 Scan Errors“ und „3.5.2 Reallocation Counts“

Erst mal meinen Dank für diese wirklich interesante Lektüre.

Aber:
Zunächst mal finde ich es ein bischen verwegen, Erkenntnisse von Google, bei denen die Platten 24/7 mehr oder weniger unter Vollast laufen, auf Konsumer-Umgebungen anzuwenden - das zunächst mal audrücklich wertneutral. Ob sich die Konsumer-Umgebung eher positiv (kürzere tägliche Laufzeit und weniger Beanspruchung) oder negativ (Temperaturen, Erschütterungen) auswirkt, darüber kann man einen eigenen Streit-Thread aufmachen ;D.

Dann bin ich in dem Dokument über den Satz: „It appears that scan errors affect the survival probability of young drives more dramatically very soon after the first scan error occurs, but after the first month the curve flattens out.“ gestolpert. Das deckt sich mit meinen Erfahrungen (okay, okay, ich kann natürlich bei weitem nicht auf so einen Pool wie Google zurückgreifen) - wenn, dann sterben Platten relativ zügig. Aber wenn sie troz defekter Sektoren einige Zeit durchhalten, dann halten sie auch noch eine verdammt lange Zeit.

Und dann:

Es geht nicht um die Initiale Zahl der defekten Sektoren, sondern um die Zunahme der defekten Sektoren im Betrieb.

Da bin ich absolut deiner Meinung. Wenn die Zahl der defekten Sektoren wöchentlich steigt, dann kann jeder den bevorstehenden Exitus vorhersagen.
Aber diese Information wurde weder im Ursprungsposting gegeben, noch eine entsprechende Beobachtung von dir angeregt. Nach dem derzeitigen Informationsstand geh ich von einer Platte mit einigen bis vielen defekten Sektoren ohne zeitliche Entwicklung aus. Und da seh ich zunächst mal (so sie den ersten Monat überlebt, s.o. :wink: keinen Anlass für eine unmittelbare Todes-Prognose.

Bei weiteren Überflügen des Kopfes über diese Dellen, wird der Kopf jedes mal etwas in Schwingung versetzt. Dies wiederum erzeugt eine etwas höhere mechanische Belastung.

Tja.
Ich will dir an diesem Punkt nicht widersprechen - aber imho ist der Schwachfug mit den Reserve-Sektoren auch nicht ganz unschuldig am Plattensterben.
Denn letztlich bedeutet dies ja, das jedesmal, wenn die Daten einer Datei, die über diesen Sektor hinweg geht, gelesen werden, der Kopf bis ganz nach hinten rast, wo die Reservesektoren liegen, um dort einen einzigen Sektor zu lesen, und dann wieder ganz nach vorne rast, um den Rest der Datei zu lesen. Und bei modernen Platten sind das ja mehrere zig-tausend Tracks…
Mir kann doch niemand erzählen, dass das der Lebensdauer einer Platte förderlich ist - verglichen mit der altmodischen Methode, defekte Sektoren einfach als solche zu markieren und künftig einfach zu überspringen.

Das Üble an der Sache ist ja, das die Verwendung der Reserve-Sektoren ohne Information des Benutzers oder Betriebssystems intern geschieht. Wenn Checkdisk defekte Sektoren erkennt, heisst das doch im Klartext, das die 100 (?), 1000 (??), 10.000 (???) Reservesektoren bereits alle im Einstatz sind, und der zusätzliche Verschleiß der Kopfmechanik durch diese zusätzlichen Trackwechsel sein Maximum bereits erreicht hat. Weitere defekte Sektoren werden jetzt einfach von Checkdisk als solche markiert, künftig einfach übersprungen und dürften daher nicht weiter zum Verschleiß der Trackwechsel-Mechanik beitragen.

Einen Hinweis darauf finden wir ja auch in dem von dir verlinkten Dokmentent: „The critical threshold analysis confirms what the charts visually imply: the critical threshold for scan errors is one.“

Demnach - und meiner Theorie nach, das die Benutzung der Reserve-Sektoren den Kopfverschleiß erhöht - ist das Kriterium für die Restlebensdauer der Platte also nicht defekte Sektoren, wenn sie vom Betriebssystem erkannt werden, sondern defekte Sektoren nach SMART. Da die aber kaum einer (regelmäßig) ausliesst…
Wenn dagegen defekte Sektoren vom System erkannt werden, liegt das Kind schon lange im Brunnen, weil offensichtlich alle Reservesektoren schon in Benutzung sind. Weitere defekte Sektoren ändern dann auch nichts mehr an der Lebensdauer (außer natürlich, es gibt eine eindeutige zeitliche Entwicklung, die auf einen nahen Tod hindeutet).

Die Kopfaufsetzer können durch externe Erschütterungen ausgelöst werden, aber gegen Ende der Lebenszeit auch durch Verschleiss und dadurch zusätzliches mechanisches Spiel beim Kopfantrieb.

Jep.
Verschleiß, der meiner Meinung nach durch den Unfug mit den Reserve-Sektoren am Ende der Plattenoberfläche völlig unnötigerweise gefördert wird.

Mit einer einzelnen Festplatte kann man keine Statistik begründen :wink:

Ach Peter… auch wenn ich dir schon fast reflexartig zustimmen möchte, so wissen wir doch beide, das man über jeden Unfug eine Statistik anlegen und jeden Unfug mit einer Statistik untermauern kann…

lg, mabuse

Hallo mabuse,

Zunächst mal finde ich es ein bischen verwegen, Erkenntnisse
von Google, bei denen die Platten 24/7 mehr oder weniger unter
Vollast laufen, auf Konsumer-Umgebungen anzuwenden - das
zunächst mal audrücklich wertneutral. Ob sich die
Konsumer-Umgebung eher positiv (kürzere tägliche Laufzeit und
weniger Beanspruchung) oder negativ (Temperaturen,
Erschütterungen) auswirkt, darüber kann man einen eigenen
Streit-Thread aufmachen ;D.

Darüber muss man gar nicht streiten.

Die meisten Elektronikausfälle hat man beim Einschalten oder nach dem Ausschalten.

  1. Temperaturzyklen.
    Die verwendeten Materialien haben unterschiedliche Ausdehnungskoeffizienten. Dadurch ergeben sich mechanische Spannungen. Das beginnt schon bei den ICs selbst und geht auf der Leiterplattenebene weiter. Bei manchen (Konsumer)Geräten kann man das sogar hören; besonders nach dem Abschalten (abkühlen) kann man ab und zu ein leises knacken hören.
    Ein Test für die Zuverlässigkeit von Halbleitern sind Temperaturzyklen. Da hat man schon nach 100 Zyklen über den vollen Temperaturbereich ausfälle. Dabei werden hauptsächlich die Bonddrähte abgeschert. Keramikgehäuse schneiden da wesentlich besser ab, weil hier die Bonddrähte frei beweglich montiert sind. Dies ist auch einer der Gründe wieso ICs nach MIL-Norm praktisch nur im Keramikgehäuse erhältlich sind. Bei einer anderen Konstruktion werden die Bonddrähte zuerst in Silikon eingebettet, bevor das Epoxi-Gehäuse gespritzt wird. Diese beiden Gehäusevarianten sind aber teuer.

  2. Einschaltströme.
    Besonders im Bereich der Stromversorgung treten beim Laden der Elkos Stromspitzen auf. Dies sieht man sehr gut bei den Gleichrichterdioden. Eine popelige 1A-Diode verträgt, nicht repetiv, Stromspitzen von 50A (1N400x). Bei einer 3A-Diode sind es dann schon 200A (1N540x).

  3. Motore.
    Beim Beschleunigen zieht ein Elektromotor recht hohe Ströme, entsprechend werden die Treiber belastet. Bei Festplatten ist der Anlaufstrom angegeben. Es gibt zumindest eine Leistungsangabe für das Hochfahren und eine für den normalen Betrieb des Spindelmotors.

Dann bin ich in dem Dokument über den Satz: „It appears that
scan errors affect the survival probability of young drives
more dramatically very soon after the first scan error occurs,
but after the first month the curve flattens out.“
gestolpert.
Das deckt sich mit meinen Erfahrungen (okay, okay, ich kann
natürlich bei weitem nicht auf so einen Pool wie Google
zurückgreifen) - wenn, dann sterben Platten relativ zügig.
Aber wenn sie troz defekter Sektoren einige Zeit durchhalten,
dann halten sie auch noch eine verdammt lange Zeit.

Und dann:

Es geht nicht um die Initiale Zahl der defekten Sektoren, sondern um die Zunahme der defekten Sektoren im Betrieb.

Da bin ich absolut deiner Meinung. Wenn die Zahl der defekten
Sektoren wöchentlich steigt, dann kann jeder den
bevorstehenden Exitus vorhersagen.
Aber diese Information wurde weder im Ursprungsposting
gegeben, noch eine entsprechende Beobachtung von dir angeregt.
Nach dem derzeitigen Informationsstand geh ich von einer
Platte mit einigen bis vielen defekten Sektoren ohne zeitliche
Entwicklung aus. Und da seh ich zunächst mal (so sie den
ersten Monat überlebt, s.o. :wink: keinen Anlass für eine
unmittelbare Todes-Prognose.

Ich habe mich aber von Anfang an, auf defekte Sektoren bezogen, welche für das Betriebssystem sichtbar sind. Dies bedeutet, dass die Reservespuren aufgebraucht sind, was im allgemeinen eine beträchtliche Anzahl an defekten Sektoren bedeutet.

[…] aber imho
ist der Schwachfug mit den Reserve-Sektoren auch nicht ganz
unschuldig am Plattensterben.
Denn letztlich bedeutet dies ja, das jedesmal, wenn die Daten
einer Datei, die über diesen Sektor hinweg geht, gelesen
werden, der Kopf bis ganz nach hinten rast, wo die
Reservesektoren liegen, um dort einen einzigen Sektor zu
lesen, und dann wieder ganz nach vorne rast, um den Rest der
Datei zu lesen. Und bei modernen Platten sind das ja mehrere
z

Hei!

Darüber muss man gar nicht streiten.

Oooch…
Ich finde schon.

Alles, was du schreibst, ist natürlich absolut richtig.
Aber speziell im Bereich der Consumer-Elektronik dürfte (sollte!) all dieses ja auch von den Entwicklungsingenieuren berücksichtigt werden.
Gerade bei Platten gibt es ja nicht umsonst Unterschiede zwischen Server- (oder neuerdings NAS-)-Platten, die für lange Laufzeiten, und Consumer-Platten, die für häufige Spin-Up/Downs konstruiert werden.

Ich habe mich aber von Anfang an, auf defekte Sektoren bezogen, welche für das Betriebssystem sichtbar sind. Dies bedeutet, dass die Reservespuren aufgebraucht sind, was im allgemeinen eine beträchtliche Anzahl an defekten Sektoren bedeutet.

Ah…
nach deinen eigenen Worten nicht notwendigerweise. Komm ich gleich nochmal drauf zurück.

Du bist da technisch nicht mehr ganz auf dem aktuellen Stand.

  1. Es werden immer ganze Spuren ersetzt und nicht nur einzelne Sektoren.
    {…}
  2. Es gibt keinen technischen Grund, wieso die Ersatzspuren hinten auf der Platte sein müssen! :wink: … Der geneigte Techniker verwendet dann jede 3. Spur als Reservespur. Durch das heute verwendete Zone-Recording funktioniert es sowieso nicht, das die Ersatzspuren hinten auf der Platte liegen.

Okay, das klingt natürlich logisch.
Aber:
Dann muss deine Behauptung von oben, das bereits alle Reservesektoren aufgebraucht seinen, natürlich nicht (notwendigerweise) stimmen!
Denn wenn - sagen wir mal - alle Reservespuren der äußersten 3 mm (??? halt der Bereich, wo alle Tracks beispielsweise 38 Sektoren haben) aufgebraucht sind, kann natürlich kein Resevetrack weiter innen benutzt werden, weil die halt einen oder mehrere Sekotren kürzer sind. Also müssen keineswegs alle Reservesektoren bereits verbraucht sein, wenn die ersten defekten Sektoren vom System gemeldet werden.

Anyway, das war nur der Vollständigkeit halber.

Denn ehrlich gesagt störe ich mich eher daran, das du immer das Worst-Case-Szenario heranziehst:

Nach einem Headcrash ist die Spur auch mechanisch beschädigt

Dazu zwei Anmerkungen:
1.) Ich gestehe, das ich da nicht wirklich genaue Informationen hab - aber in Anbetracht der Kapazitäten dürften die gängigen Trackbreiten im Bereich von Mikrometern, wenn nicht noch kleiner sein. Wie breit ist eigentlich so ein Schreib/Lese-Kopf? Nur aus dem Bauch raus würde ich vermuten, ein Vielfaches der Breite des Spaltes, durch den gelesen wird - womit bei einem Headcrash nicht einer, sondern eher fünf, zehn oder gar zwanzig Tracks nebeneinander betroffen wären - was den Wert der Reservespuren doch erheblich veringern würde (weil ebenfalls betroffen).

Außerdem hab ich mal irgendwo gelesen (vermutlich c’t, aber nagel mich nicht drauf fest), das bei der Mehrzahl der Headcrashs bei den modernen Schnelldrehern die thermische Energie, die durch die Reibung frei wird, bei den relativ kleinen Köpfen für eine Verschweißung mit der Oberfläche ausreichend ist - sofortiger und totaler Exitus. Einschränkung: Diese Information ist Minimum ein Dutzend Jahre alt, kann sein, das das heute wieder anders ist.

2.) Glaube ich, das der Headcrash eher die Ausnahme als die Regel ist.
Festplatten - also, für den Konsumerbereich - müssen heute Kinderzimmer- und USB-Gehäuse- kompatibel sein. Bedeutet in meinen Augen, das sie so robust konstruiert werden, das ein Headcrash bei pfleglicher Behandlung nahezu auszuschließen ist.

Ich geh eher davon aus, das die überwiegende Anzahl der Defekte auf gut behandelten Platten schlicht und ergreifend auf thermische Alterung einzelner Speicherzellen zurückzuführen ist, die vieleicht bei der Produktion schon grenzwertig waren, aber eben noch nicht durchgefallen sind.
Denn wenn man sich mal die Speicherdichte moderner Platten anschaut, dann kommt man auf 30 ? 50 ? oder so Eisenmoleküle pro Bit - das man davon 16 Billionen in absolut gleichmäßiger Qualität auf eine kleine, schnell rotierende Scheibe unterbringt, und das bei einem Massenprodukt, das nichts kosten darf… ne, wirklich nicht.

Darum gibt/gab es ja überhaupt die Möglichkeit, einzelne Sektoren als defekt zu maskieren: Weil 100%ige Fehlerfreiheit bei einem Massenprodukt effektiv nicht einzuhalten sind. Und wenn sie es wären… dann könnte man doch lieber die Dichte erhöhen und dafür eine handvoll (maskierbarer) Fehler mehr in Kauf nehmen.

Wie gesagt, Headcrash ist imho eher die Ausnahme, und bei „normaler“ Alterung halte ich die einfache Maskierung der defeketen Sektoren auch weiterhin für die bessere Methode.

Teilweise gibt das BIOS, beim starten, Warnungen aus.
Zudem gibt es Tools welche im Hintergrund die S.M.A.R.T.-Werte überwachen und Warnen, wenn kritische Werte erreich werden.

Ja - aber beides erst, wenn das Kind schon im Brunnen liegt (Werte kritisch werden). Nach dem Google-Dokument ist aber der erste defekte Sektor das Kriterium, und den dürfte kaum ein BIOS oder anderes Programm schon monieren.

Du vergisst hier den Effekt, dass der Kopf die defekten Stellen überfliegen muss.
Das ist wie beim Auto. Mit der Zunahme der Schlaglöcher auf der täglichen Route geht auch die Lebensdauert des Autos zurück.

Ja… was uns jetzt feht, ist eine Statistik ( sic! ), wieviele der Defekte auf Alterung, und wieviele auf einen Headcrash zurückzuführen sind…

lg, mabuse