Zitat von
Petrus
Ist eine niedrige Umdrehungszahl der Langlebigkeit förderlich?
Nicht, dass ich wüsste. Eher der Lautstärke, auf Kosten der IOPS.
Ändert sich irgendwas (vielleicht herstellerbezüglich oder partitionierungstechnisch), wenn ich die Platte ausschließlich mit ext4 konfrontiere?
Nope. Ab 2 TB aufwärts willst du Platten mit GPT statt MBR partitionieren, aber das ist unabhängig davon, welches OS oder Dateisystem zum Einsatz kommen soll.
Hängt die Datensicherheit einzig von mechanischen Gegebenheiten ab? Stoßfestigkeit, Wärme, Staub, RPM, Schreib-/Lesezugriffe, Lagerung? Oder gibt es noch andere Überlegungen?
Es gibt durchaus unterschiedliche Angaben zur "Haltbarkeit". Wenig aussagekräftig ist bspw. die MTBF (Mean Time Between Failures), die üblicherweise ein paar Millionen Stunden beträgt. Das ist allerdings ein rein statistisch ermittelter Durchschnittswert und daher nicht wahnsinnig nützlich bei nur einer einzigen Platte.
Es gibt auch noch eine Wahrscheinlichkeit für nicht korrigierbare Lesefehler. Die meisten Desktopplatten liegen bei 10-14 Bit. Bessere Platten bei 10-15, manch teure Serverplatte bei 10-16. Das klingt so oder so nach wenig, kann aber schon relevant sein. Wenn ich eine Platte mit 4 TB und einer Fehlerwahrscheinlichkeit von 10-14 habe, dann habe ich nach 3x die Platte komplett einlesen einen nicht mehr korrigierbaren Fehler dabei. Bei 10-15 erst nach 30x lesen und bei 10-16 erst nach 300x einlesen. Auch das sind natürlich statistische Mittelwerte. Niemand verspricht dir, dass man die Platte z.B. 2x garantiert ohne Fehler lesen kann.
Ob es Sinn macht, für bessere Fehlerraten mehr Geld auszugeben, ist Geschmacksfrage. Man kann auch mit Redundanz arbeiten. Zum Beispiel mit RAIDs oder indem man die Daten auf der Platte mit zusätzlichen Fehlerkorrekturdaten speichert (siehe 'par2' unter Linux).
Ebenso gibt es Platten, die für den Dauerbetrieb ausgelegt sind und welche, die es nicht sind. Manche sind für den Betrieb in einem NAS gedacht und haben dann z.B. einen Masseausgleich, damit nicht zu viele Platten im selben Gehäuse Resonanzschwingungen produzieren und sich damit gegenseitig stören. Bei denen arbeitet auch oft die Fehlerkorrektur anders. Sie versuchen nicht möglichst lange, einen Lesefehler durch mehrfaches Neulesen zu korrigieren. Das ist wichtig für RAIDs, denn wenn die Platte zu lange braucht, um ein Resultat zu liefern, dann entscheidet der RAID-Controller ggf. einfach, dass sie kaputt ist und wirft sie aus dem Verbund. Und dann muss man einen aufwendigen Rebuild anstoßen. Statt dessen bricht die Platte einfach früher mit einem Lesefehler ab und überlässt die Korrektur dann dem darüber liegenden RAID. Wer so eine Platte im Solobetrieb einsetzt, hat also tendentiell öfter mit Lesefehlern zu kämpfen.
Ich würde im Zweifel eher auf zusätzliche Redundanz statt auf angeblich supersichere und unkaputtbare Speichermedien zu setzen. Im professionellen Umfeld nimmt man oft die 3-2-1-Methode: 3 Kopien der Daten, auf 2 verschiedenen Medien, davon 1 außer Haus. Ob das für dich Sinn macht, hängt von davon ab, wie wichtig dir deine Daten sind. Letzten Endes braucht man sich als Privatperson nicht verrückt zu haben. Jedes Backup ist besser als gar keines.