Festplatten aus Software-RAID 5 in Standby?

Moin moin!

Ich habe ein Software-RAID 5 mit insgesamt 3 Festplatten. Das Software-RAID basiert auf mdadm. Die Partition ist gemountet und beinhaltet noch keine Daten (Mount-Punkt /data) und sllte vom System auch nicht benutzt werden. Wie schaffe ich es aber die Festplatten in den Standby zu schicken? Wenn ich manuell alle 3 Platten mit hdparm -y /dev/sdb (bzw. sdc und sdd) in Standby schicken will zeigt mir hdparm -C /dev/sdb (oder eben auch sdc bzw. sdd) immer wieder „active/idle“ an!?

Es sind zwei Festplatten von Samsung mit je 2 TB installiert und das RAID ist auch komplett fertig initialisiert.

Irgendjemand eine Idee?

Danke schonmal

Lutz

Mit hdparm -S xx habe ich schonmal einen Raid5 betrieben, der sich nach einer Leerlaufzeit dann schlafen gelegt hat. Funktionierte wunderbar. Evt. gibts hier nur Probleme beim manuellen schlafen legen.

Bitte bedenke das zu kurze Leerlaufzeiten schädlich für die Platten sein könnten.

Bitte bedenke das zu kurze Leerlaufzeiten schädlich für die
Platten sein könnten.

Kannst du das mal erläutern oder ein link, wo man das nachlesen kann, geben. Würd mich interressieren warum das so ist bzw sein soll .

Und was heisst schädlich in diesem sinne genau ?
Gilt das für alle typen von Festplatten ? SSD HDD ?

Schädlich insofern, dass die Festplatten bei zu kurzer Zeitspanne sehr kurz nach dem letzten Zugriff heruntergefahren werden und beim nächsten Zugriff wieder hochgefahren werden müssen. Angenommen du hast 30 Sekunden eingestellt als Herunterfahrzeit aber ein Cronjob greift jede Minute auf die Platte zu, dann hast du 3600 Spindowns + 3600 Spinups in der Stund.

Durchschnittlich sagen Hersteller glaube ich ~100.000 Spindowns/Spinups pro Lebenszyklus einer Festplatte seien normal und „garantiert“, bis ein Fehler auftritt.

Grundsätzlich ist es jedenfalls so, dass der Motor durch das stetige Anhalten und Anfahren mehr verschleißt, als durch dauerhaftes Laufen. Das führt dann im Endeffekt dazu, dass eien zu kurze Zeitspanne für das Herunterfahren dazu führen kann, dass der Motor kaputt geht und damit die ganze Platte im Eimer ist.

Danke für die Antwort, das werde ich mal testen müssen. Hast du denn neben dem -S-Parameter noch irgendetwas spezielles angegeben? Hast du das für die Festplatten einzeln zugewiesen oder für /dev/mdX, also das RAID-„Laufwerk“ selbst?

hdparm -S xx /dev/einzelnePlatte

xx steht hierbei für einen Wert von 0-255 der der Leerlaufzeit entspricht. Das sind keine Minuten.

siehe doku:

Values from 1 to 240 specify multiples of 5 seconds, yielding timeouts from 5 seconds to 20 minutes. Values from 241 to 251 specify from 1 to 11 units of 30 minutes, yielding timeouts from 30 minutes to 5.5 hours. A value of 252 signifies a timeout of 21 minutes. A value of 253 sets a vendor-defined timeout period between 8 and 12 hours, and the value 254 is reserved. 255 is interpreted as 21 minutes plus 15 seconds. Note that some older drives may have very different interpretations of these values.

Nachtrag
Der Wert muss nach jedem Booten des Rechner neu gesetzt werden, da er nicht dauerhaft in den Platten gespeichert wird.

Bitte bedenke das zu kurze Leerlaufzeiten schädlich für die
Platten sein könnten.

Kannst du das mal erläutern oder ein link, wo man das
nachlesen kann, geben. Würd mich interressieren warum das so
ist bzw sein soll .

Und was heisst schädlich in diesem sinne genau ?

siehe Beitrag von MrNiceGuy

Gilt das für alle typen von Festplatten ? SSD HDD ?

Ist eine mechanische Belastung, daher nur alle Platten mit beweglichen Teilen, keine SSDs. Bei Hybridplatten bin ich unwissend.

Meine Empfehlung wäre eine Abschaltzeit nicht kleiner 30min bei 3,5" Platten (wobei man natürliche die vermutliche Pausenzeit mit beachten muss, lieber 1h länger an lassen als in 1h 2x Spindown)

OK, das habe ich gemacht, leider schalten die Platten nur dann ab, wenn das md0 nicht gemountet ist :frowning: Gibt es da Konfigurationsparameter für mdadm?

Hybrid-Platten sind eine Mischung zwischen normalen HDDs und SSDs, entsprechend dürfte diese Tatsache ebenfalls negative Auswirkungen haben, sollte es zu häufigeren Spindowns kommen.

[GELÖST] Fehlerquelle: Open SuSE 11.4!
Moin nochmal!

Nach weitere Recherchen im Netz bin ich auf Seite vier der Suchergebnisse dann auf ein englicshsprachiges Forum gestoßen, in dem jemand das gleiche Problem hatte wie ich. Diese Person ist etwas mehr ins Detail gegangen und hat herausgefunden, dass unter Open SuSE 11.4 mit ext4 als Dateisystem für das Software-RAID 5 der Superblock alle paar Sekunden aktualisiert wird. Es war ihm nicht möglich dieses Verhalten in irgendeiner Art zu beeinflussen, aber er hat damit die Ursache dafür gefunden, warum sich die Platten nicht in den Standby schicken ließen (und wenn doch sie unmittelbar danach wieder angefahren sind).
Er fand dabei heraus, dass in Open SuSE 11.3 dieser Umstand nicht vorhanden ist und dort das System mit ext4 ohne Probleme so funktioniert, wie man es erwartet.
Ich habe nun Open SuSE 11.3 installiert und siehe da: Es geht tatsächlich! Ob Bug oder Feature müssen nun die Entwickler von mdadm und/oder ext4 herausfinden.

Leider habe ich es verpasst die Seite zu bookmarken und finde sie aktuell leider nicht mehr wieder. Grundsätzlich sollte es aber erstmal jedem mit diesem Problem reichen, zu wissen, dass Open SuSE 11.4 der Übeltäter war.

Danke an alle

Lutz