Eftersom jag och säkert fler har ärr i sinnet när det gäller krachade filsystem så fastnade jag på en rapport där man injicerar fel i filsystemens filpekare av olika slag på mer strukturerat sätt och sedan se vad som händer med filsystemen efteråt med olika simuleringar med virtuella maskiner. Rapporten har egentligen fokus på frågeställningen vad som händer med filsystemen när mediat börja få bitröta på filsystemskritiska sektorer och bör intressera alla som arkiverar på HD och kanske i bankfack.
Den ser ganska seriös ut, med i typisk LaTex-rapport format från universitet (där Google också nämns) etc. se
http://pages.cs.wisc.edu/~swift/papers/ ... -dsn08.pdf där testet har gjorts på NTFS och ext3
Man kan säga att ingen av dessa filsystem har gjort bra ifrån sig, det finns mycket att förbättra - framförallt på filsystemcheck-sidan där relativt små insatser kan ge väldigt stora förbättringar då som det ser ut idag så används väldigt lite av filsystemens potentiella redundans när man skall städa upp en lortig filsystem, och i NTFS i vissa situationer förvärrar det hela till heltrasigt filsystem då den skriver över redundant data utan att ha lästs och som förloras för alltid och det blir följdfel som eskalerar - och det kan ske redan vid första ombootningen efter en datorhäng tex...
Till detta har man 'attitydproblem' på vad som är viktig data och båda systemen lita mera på sina (felaktiga) pekare än datat som ligger på plats och verifieras på annat sätt i tidigare steg. linux tog 'stryk' i testen i och med att volymen om-monteras till read only så fort minsta fel indikerats vilket förvisso skyddar innehållet bättre för vidare skador men blir en showstopper, medans NT gör olika saker vid start och drift i bakgrunden som inte syns eller medelas med olika recover-försök och ibland kan bli väldigt fel med förstörd data som följd - vilket som är värst kan man diskutera...
När man läst detta så inser man att programmerarna för filsystem för båda OS har sett filsystemkontrollen som ett nödvändigt ont och gjorts minsta möjligt på denna vid sidan av filsystemknackandet och man har inte funderat seriöst på filsystemcheckens förmåga att rädda upp ett trasigt system alls på den nivå som det finns potential för.
Att välja filsystem för långtidslagring ingen trivial historia då den helst skall klara bortfall av viktiga data i filsystemsviktiga delar utan att innehållet skadas eller görs oåtkommlig - systemet som tänkt längst i den vägen är förmodligen ZFS - ja om man inte lägger en okomprimerad tar-arkiv direkt på /dev/sdb... typ.