Door Anoniem: Door Anoniem: Als het behouden van data (archiveren) van dusdanig belang is zou ik niet uit gaan van de persoonlijke mening van een paar forumleden hier; ze zijn gespecialiseerde data beveiligingsbedrijven binnen NL actief, sommige met tapes in bunkers; andere met cold storage in redundant datacenters. Dat zijn de enige plekken waar alle omgevingsvariabelen op de juiste manier zijn ingeregeld om data consistentie te kunnen waarborgen. En dat heeft te maken met straling, temperatuur, lucht vochtigheid, lucht circulatie etc etc.
Ik zou je keuze vooral niet baseren op "ik heb nog oude harde schijven die het prima doen". Ik heb ervaring met jonge schijven die het niet meer doen, en hele oude die het nog wel doen (1985). Maar ook genoeg hele oude die het niet meer doen; en genoeg hele jonge die het nog prima doen.
Je snapt blijkbaar niet dat bitrot ook een rol speelt. Dan kun je nog zoveel tapes hebben liggen, ook die hebben last van bitrot, al dan niet bij een commerciele partij. Als je mijn antwoord (suggestie voor zfs) nog eens bekijkt dan zie je daar fileserver
s, dat wijst op een geografische spreiding, niet noodzakelijkerwijs commercieel. ZFS is het enige filesysteem die bitrot preventief voorkomt met 64 bit checksums.
https://nl.wikipedia.org/wiki/ZFS Het begint met het zo goed mogelijk bewaren van data, want er is een grens aan wat ZFS (of welk ander checksum/redundancy gebaseerde systeem dan ook) kan herstellen als er teveel bitten tegelijk omvallen.
De eerste stap is en blijft het (goed) kiezen van media en fysieke condities .
Keuze van iets met checksums/redundantie op de filesystem-layer volgt een stukje later.
Bijvoorbeeld LTO tapes schrijven ook checksum en error-recovery data naar tape .
Op "applicatie niveau" - als je een filesystem of data ervan niet "als filesystem" op de plank legt maar als een backup-van kan het backup programma een data container schrijven voorzien van checksums en eventueel error-recovery informatie.
(voor doe-het-zelf zou je dat met tar / bzip2/par2 kunnen bouwen )
Als de opslag in de een of andere "storage API" gaat is het puur die applicatie en de onderliggende implementatie die data integriteit bewaken.
(bv een CEPH object store , heeft ook opties voor checksums).
Ik betwijfel overigens of je precies kunt zeggen dat ZFS het enige FS is dat dit voorkomt (WAFL van NetApp had en heeft al dergelijke features), en later heeft BTRFS dit ook gekregen.
Nu is ZFS zeker een prima filesystem - maar zonder fysiek betrouwbare opslag niet voldoende. Het _kan_ een component zijn in een lange-termijn opslag ontwerp.
Niet al te veel fanboy'en van precies één (weliswaar goede) bouwsteen in een heel systeem of platform.