Post by Frank MöllerÄh, wie? Ich dachte, über das IMO etwas seltsame Ansinnen, ein
Multi-Terabyte-Grab tatsächlich täglich komplett kopieren zu wollen, wären
wir inzwischen hinaus?
Täglich braucht man das sicher nicht. Aber ab und an muss man halt mal
alle Sektoren lesen, damit man weiß ob sie noch gehen. Das gibt der
Platte des weiteren die Gelegenheit, ihre ECC-Korrekturen anzuwenden und
Sektoren ggf. umzumappen, bevor die Daten nicht mehr korrigierbar sind.
Alle zwei Monate reicht dicke.
Wenn man aber immer nur per rsync auf bereits existierende
Zieldatenträger inkrementell sichert, reicht das eben nicht. Dann kann
es ewig dauern, bis man alles einmal gelesen hat.
Post by Frank MöllerPost by Marcel MuellerDen Fall meinte ich auch nicht. Ich meine nur die heute häufigste
Fehlerursache: nichtkorrigierbare Lesefehler.
Das ist "die heute häufigste Fehlerursache"? Würde mich doch sehr wundern
und stelle ich definitv nicht fest.
Mir ist mit einer Ausnahme (abgerauchter Servo-Treiber bei einer WD) in
den letzten Jahren nichts anderes unter gekommen. Dazu zählt natürlich
auch der Fall, dass die Platte die eigene Firmware nicht mehr lesen kann
- üblicherweise deutlich zu hören beim Start.
Das ist auch kein Wunder. Ein kurzer Blick auf die Fehlerrate im
Datenblatt offenbart:
90-er Jahre: IBM DCAA 4GB, Fehlerrate = 10^-13
heute: WD Black 4TB, Fehlerrate = 10^-14
Also Kapazität Faktor 1000, Fehlerrate Faktor 10. Anders formuliert, die
alte DCAA hat statistisch gesehen nach 300-mal komplett lesen Daten
verloren, die neue WD Black nach 3-mal lesen. :-o
(Die Fehlerrate beschreibt unkorrigierbare Fehler pro gelesenen Bits.)
Und die zum Vergleich gezogene DCAA war die Holzklasse. Meine 1GB-Platte
von den frühen 90-ern hatte laut Spezifikation schon 1000-mal Lesen ohne
Fehler.
Auch die Physik erklärt das Verhalten. Sobald die Energie, die man zum
ummagnetisieren einer Domäne auf der Platte braucht (1 Bit), auch nur an
die Größenordnung der bei Betriebstemperatur verfügbaren, thermischen
Energie heran reicht, kann diese durch Tunneleffekt spontan ihre
Magnetisierung ändern. Und je höher die Aufzeichnungsdichte desto
kleiner die Domäne und desto kleiner die Energie. Dem kann man in
gewissen Grenzen entgegenwirken, indem man die Anisotropie des
magnetischen Materials erhöht und zusätzliche, antiferromagnetisch
gekoppelte Schichten unterhalb der Oberfläche aufbringt. Aber dieses
Potential ist längst ausgelutscht. Das ist das berüchtigte
Superparamagnetische Limit.
Kurzum, die Daten auf aktuellen Datenträgern sind thermisch nicht mehr
langzeitstabil. Hinzu kommt, dass bei den hohen Aufzeichnungsdichten
auch das Lesesignal immer schwächer und damit verrauschter wird.
Lesefehler sind heute daher an der Tagesordnung. In gewissen Grenzen
sorgen Fehlerkorrekturverfahren für Linderung, aber gegen den
schleichenden Zerfall hilft das nicht dauerhaft. Man darf dabei auch
nicht vergessen, dass es schon seit Jahrzehnten Informationen auf dem
Datenträger gibt, die die Platte niemals wiederherstellen kann, weil der
Schreibkopf dazu physikalisch nicht in der Lage ist. Die
Servoinformationen gehören z.B. dazu.
Post by Frank MöllerUnd dennoch sind "nichtkorrigierbare Lesefehler" sicher nicht "die heute
häufigste Fehlerursache".
Das sehe ich wie gesagt anders.
Post by Frank MöllerPost by Marcel MuellerUnd Platten nehme ich üblicherweise wenigstens aus der
Entry-Server-Klasse.
Hm, ja, nee. Wieviele zehntausend Stunden läuft denn so'n Teil, bevor's die
Hufe reißt oder aus anderen Gründen ausgetauscht wird? Ob da nun eine MTBF
von nur 1 Mio. Stunden oder von 100 Mio. Stunden angesagt wird, macht da
AFAIS eher einen theoretischen Unterschied (ordentliche Behandlung
natürlich vorausgesetzt).
So eine hohe MTBF haben die nicht. Vllt 1 Mio. Außerdem fallen
spezifikationgemäße Datenverluste in der Herstellerrechnung nicht unter
das "F".
Da gibt es aber auch noch andere Unterschiede. So hat die Constellation
ES im meinem Server z.B. auch eine Faktor 10 geringere Bitfehlerrate und
das noch bei etwas geringerer Kapazität, wodurch aus 3-mal Lesen bis zum
(spezifikationsgemäßen) Datenverlust 125-mal wird - natürlich immer nur
ein statistischer Wert. In der Profiklasse ergibt sich gar einen Wert
von 2000.
Die MTBF unterscheidet sich übrigens nur geringfügig zu Holzklasse.
Post by Frank MöllerPost by Marcel MuellerSo schaut es. Nur die allerwenigsten dürften solche Komponenten kaufen,
zumal sie deren Wert gar nicht schätzen können.
Dann muß ich mich mit deren Krempel nicht abplagen. Wenn sie nicht wollen,
dann lassen sie's halt. Ich liege auch gerne mal auf der Couch und bohre in
der Nase. Ist recht meditativ. ;-)
Dummerweise stellt sich das selten so dar, wenn es im engeren Umkreis
passiert. Die Betroffenen sind dann erstaunlich impertinent. Und ihnen
ist die Sachelage, dass man sowieso nicht helfen kann, genauso
sch***egal wie dir deren Schicksal beim Nasebohren.
Post by Frank MöllerPost by Marcel MuellerPost by Frank MöllerMan darf halt nicht knausern und muß diszipliniert sein, z. B. Platten mit
Reallocated Sectors fliegen hier rigoros raus.
Ich meine, es gibt Baureihen, wo das nicht funktioniert, weil der Wert
selten auf 0 bleibt, ohne dass es über Jahre zu irgendwelchen Symptomen
kommt. Nur Pending Sectors sollte tunlichst auf 0 bleiben.
Meinst Du vielleicht die astronomische "Raw Read Error Rate" speziell z. B.
bei der ST4000DM000 und ähnlichen? Da gehört das quasi zum "guten Ton". Der
"Reallocated Sectors Count" und der "Current Pending Sector Count" stehen
aber sehr wohl bei 0.
Äh, ja, du hast recht, es war die ECC rate, nicht Reallocations. Das ist
bei der Constellation ES hier auch so. Möglicherweise hat Seagate sich
entschieden, lieber die rohe Datendichte noch höher zu schrauben und
dafür einen erheblichen Prozentsatz als Fehlerkorrekturinformationen zu
nutzen. Das mag in Summe aufgehen.
[ECC-RAM]
Post by Frank MöllerPost by Marcel MuellerBei Intel - fürs Daddeln wohl erst wahl - musst Du dafür aber kräftig in
die Tasche greifen und einen Xeon nebst passendem Server-Board kaufen.
Klar, deswegen müssen die Leute bei mir sozusagen "auf eigenen Wunsch" mit
AMD vorliebnehmen, wenn sie keine Xeon-Apothekenware wollen. Das wollen sie
nach kurzer Erklärung (und ggf. kurzer Vorführung) (m)eines gepflegten
AMD-Multicore-Systems auch so haben und meinen dennoch nicht, sie müßten
zwingend gleich einen Ryzen haben wollen.
Brauche ich auch nicht. Zu teuer und noch zu unausgereift.
Post by Frank MöllerEin FX mit echten 8 Kernen skaliert einfach so richtig geschmeidig und von
unten raus, daß es eine Freude ist.
Ich bekomme selbst im VM-Server den 4-Zylinder nicht annähernd an die
Wand gefahren. Aktuelle Statistik ist 96-97% auf der niedrigsten
Taktstufe - also weit von Vollast entfernt. Tendenz ist über die Jahre
leicht fallend; ich hatte früher eher 98%. Das ist der Tribut an immer
komplexere und verschwenderischere Software.
Post by Frank MöllerEinzig die Single-Core-Performance ist
manchmal etwas verbesserungswürdig, das ist allerdings Jammern auf sehr
hohem Niveau. Doch wer da mehr will, muß dann eben einen Ryzen nehmen.
Oder dann halt doch besser Intel.
Post by Frank MöllerPost by Marcel MuellerSelbst bei AMD schränkt das die Wahl auf ASUS-Board und die alten FX
ein. Wie es bei Ryzen Boards aussieht, weiß ich noch nicht.
Ryzen kann natürlich auch ECC, ebenso die ASUS-Boards dafür.
Ah, gut zu wissen. Die FM-Serie zwischendurch haben sie ja nie mit ECC
angeboten. Und die waren auch noch teurer und/oder langsamer als ein FX
+ GraKa.
Post by Frank MöllerUnd unter
einem FX will man heute ohnehin nicht mehr anfangen, die gibt's ja auch
schon mit 4 Kernen.
Ja, für einen Appel und ein Ei (ca. 50€). Das ist alle mal preiswert,
zumal die Dinger grundsolide sind. Vor allem, wenn man sie auf dem bald
10 Jahre alten, gusseisernen 760G Chipsatz fährt, der aus gutem Grund
immer noch gefertigt wird.
Post by Frank MöllerEs gibt allerdings einige wenige Boards für AM4 und mit ECC, die nicht von
ASUS kommen. Da scheinen sich manche doch wieder umbesonnen zu haben. Das
flößt mir aber kein Vertrauen ein, ich bleibe dann dennoch bei ASUS.
Bei denen ist auch nicht immer alles Gold was glänzt.
Marcel