Ich hab nach meinen ersten schlechten Erfahrungen mit ext3 im Zusammenhang nach Erhalt des IDE IF meine HDD mit xfs formatiert. Das ist zwar deutlich performanter, aber die Ungereimtheiten nehmen auch damit kein Ende.
Gestern abend kopierte ich per FTP noch Filme auf die Box, probierte später noch Aufnahmeversuche an Astra HD im PES Modus aus (http://forum.tuxbox-cvs.sourceforge.net ... 107#321107). Danach stellte ich alles wieder um auf SPTS und bootete neu. Die Box stürzte nie ab bei den Versuchen, sondern wurde immer korrekt komplett neu gestartet aus Neutrino heraus.
Als jetzt nun eine Aufnahme starten sollte, kam die Meldung, daß das /hdd Verzeichnis nicht beschreibbar war. Ich sah nach, und tatsächlich war die Datenpartition komplett weg (nicht angemeldet). Anmelden ging nicht, auch Reparatur aus Neutrino heraus versagte mal wieder. Also telnet und xfs_repair gestartet. Dieses meldete einen bad primary superblock, und suchte dann die komplette HDD nach der secondary ab. Gott sei Dank klappte das diesmal, und alles war wieder da.
Das war aber nicht das erste Malheur mit xfs. Schon mehrfach erlebte ich komplette Daten GAUs, unter xfs als auch ext3. Sind diese Dateisysteme unter Linux denn wirklich so anfällig? Soviele Datenverluste in den letzten 2 Wochen wie ich mit dem IDE IF erlebt habe, habe ich in den 10 Jahren zuvor unter Windows und Amiga nicht gehabt. Was ist denn da das Problem? Darf ich der HDD denn gar nichts mehr anvertrauen? Ich würde ja verstehen, daß bei Abstürzen es zu Inkonsistenzen kommen kann, aber die waren nicht da. Außerdem sind das doch spezielle Journaling FS, die auch besonders gut mit Abstürzen zurecht kommen sollten. Ich verstehe deshalb ganz und gar nicht, wie es immer wieder zu solchen Daten GAUs kommen kann. Bin ich denn der einzige mit diesem Problem?
Ich benutze den JTG Snapshot vom 5.1.2007, der HDD Cache ist abgeschaltet.
Sind Dateisysteme unter Linux so problematisch?
-
- Einsteiger
- Beiträge: 180
- Registriert: Dienstag 13. Januar 2004, 14:53
-
- Tuxboxer
- Beiträge: 6044
- Registriert: Montag 17. November 2003, 06:48
-
- Einsteiger
- Beiträge: 180
- Registriert: Dienstag 13. Januar 2004, 14:53
Urgls, das wird kompliziert. Ist ja nicht nach jedem Shutdown so. Außerdem bin ich gerade froh, wenn ich mal keine Datenverluste zu fürchten habe. Und extra provozieren will ichs jetzt auch nicht, wo ich etwa 40 GB mühsam hinübergeschaufelt habe über das Ethernetnadelöhr. Du verstehst mein Problem?
Hat denn sonst niemand anderes bereits Inkonsistenzen mit dem FS (egal welches) gehabt? Und wenn ja, wann ist es passiert? Auch erst nach einem Neustart?
Hat denn sonst niemand anderes bereits Inkonsistenzen mit dem FS (egal welches) gehabt? Und wenn ja, wann ist es passiert? Auch erst nach einem Neustart?
-
- Erleuchteter
- Beiträge: 441
- Registriert: Dienstag 11. März 2003, 03:42
Jo, ist auch ein ToDo von mir, das mal mit zu loggen...
Kann mir jemand ein TerminalProggie empfehlen?
Ausserdem empfehle ich allen, nach dem Booten z.B. ein "dmesg|grep XFS" auszuführen. Den selbst wenns gut gegangen ist, ist ein "clean mount" nicht die Regel.
Das rausnehmen des EPG Speicherns milderte das etwas.
Auf der sichereren Seite ist man mit "Writecache OFF" und mounten mit der sync Option - aber das macht nicht wirklich viel Spass.
Mir ist mittlerweile auch schon 3x das Filesystem unwiederbringlich um die Ohren geflogen...
Wer EPG speichern nicht benutzt, kann damit mildern, dass er nur während der Aufnahme Schreibzugriff gewährt (remount)n mehrere Partitionen benutzt, vor jedem Flashen und Reboot die HDD manuell unmounted oder "sync" benutzt.
Wenn Neutrino runterfährt und die Platte Schläft, scheint irgendwo Zeit zu fehlen, um die Caches komplett weg zu schreiben - und dieses unterbrechen beim Schreiben ist das Schlimme...
Und das hat auch bei Amiga schon gestört ;o)
Kann mir jemand ein TerminalProggie empfehlen?
Ausserdem empfehle ich allen, nach dem Booten z.B. ein "dmesg|grep XFS" auszuführen. Den selbst wenns gut gegangen ist, ist ein "clean mount" nicht die Regel.
Das rausnehmen des EPG Speicherns milderte das etwas.
Auf der sichereren Seite ist man mit "Writecache OFF" und mounten mit der sync Option - aber das macht nicht wirklich viel Spass.
Mir ist mittlerweile auch schon 3x das Filesystem unwiederbringlich um die Ohren geflogen...
Wer EPG speichern nicht benutzt, kann damit mildern, dass er nur während der Aufnahme Schreibzugriff gewährt (remount)n mehrere Partitionen benutzt, vor jedem Flashen und Reboot die HDD manuell unmounted oder "sync" benutzt.
Wenn Neutrino runterfährt und die Platte Schläft, scheint irgendwo Zeit zu fehlen, um die Caches komplett weg zu schreiben - und dieses unterbrechen beim Schreiben ist das Schlimme...
Und das hat auch bei Amiga schon gestört ;o)
-
- Einsteiger
- Beiträge: 123
- Registriert: Montag 28. November 2005, 11:31
-
- Tuxboxer
- Beiträge: 2614
- Registriert: Montag 20. Mai 2002, 10:49
- Image: JTG-Image [IDE] Version 2.4.4
- Image: (7025SS) Merlin
Ich könnte Dir Tutty empfehlen, das ist ein erweiterertes Putty, das außerdem noch die serielle Schnittstelle unterstützt.palace hat geschrieben:Jo, ist auch ein ToDo von mir, das mal mit zu loggen...
Kann mir jemand ein TerminalProggie empfehlen?
Greetz von DrStoned