Wie sich verlorene Informationen wiederbeschaffen lassen

Datenrettung: Der letzte Strohhalm

31.05.2002
MÜNCHEN - Wenn der Computer die Festplatte nicht mehr erkennt, das Laufwerk seltsame Geräusche von sich gibt oder der Anwender aus Versehen Daten auf dem Server gelöscht hat, ist guter Rat teuer. Den letzten Hoffnungsschimmer bieten oft Tools zur Datenrettung. Doch Vorsicht! Nicht immer ist ihre Anwendung ratsam, und auf jeden Fall sind einige Dinge zu beachten. CW-Bericht, Sabine Ranft

Niemand ist vor dem Verlust von Daten gefeit - auch gestandene Unternehmen nicht. Karl-Friedrich Flammersfeld, Geschäftsführer der auf Datenrettung spezialisierten Ibas Deutschland GmbH in Hamburg, beschreibt einen typischen Fall: "Ein Kunde hat bemerkt, dass eine Platte des Raid-Systems kaputt gegangen ist und seinen Service-Techniker informiert, frei nach dem Motto: Du musst das mal reparieren, aber noch funktioniert es ja ...". Noch bevor der Techniker die erste Platte inspiziert hatte, gab auch die zweite (baugleiche!) ihren Geist auf - innerhalb von 24 Stunden. Damit war das Raid-System tot. Vermutete Ursache: Verschleiß, berichtet der professionelle Datenretter.

Während hier der Zufall Regie geführt hat, ist anderswo die Nachlässigkeit der Anwender schuld. Insbesondere mittelständische Unternehmen legen das Backup oft in fremde Hände. Im Regelfall erstellt der Dienstleister dabei ein Konzept, das dann umgesetzt wird. Im Laufe der Zeit kommen aber neue Laufwerke und Verzeichnisse hinzu, die im ursprünglichen Plan nicht berücksichtigt wurden. Häufig denkt der Anwender dann gar nicht daran, dass diese Elemente nicht gesichert werden, weil sie nicht in die Backup-Routine aufgenommen wurden. Fällt ausgerechnet eines dieser Laufwerke aus, steht der Betroffene ziemlich im Regen.

Die Ursachen für den Verlust von Daten sind vielfältig: 45 Prozent aller Fälle verschulden Benutzer durch eigene Fehler. 18 Prozent gehen auf das Konto von Systemausfällen, 17 Prozent auf das von Software- und acht Prozent auf Hardwarefehler zurück. Virusbefall schlägt nach Angaben des Marktforschungsunternehmens TIP mit zehn Prozent aller Fälle zu Buche. Naturkatastrophen wie Wasser- und Brandschäden sind mit einem Anteil von zwei Prozent eher selten.

Im Serverbereich passiert viel

Von Datenverlusten können im Prinzip alle Computer betroffen sein - vom Notebook über PCs und Server bis hin zum Großrechner. Mainframes sind in der Regel allerdings recht gut geschützt. Da sie hauptsächlich in großen Institutionen wie Banken und Versicherungen stehen, die der Datensicherung einen hohen Stellenwert beimessen, verfügen sie über ausgefeilte Backup-Systeme in mehrfacher Redundanz. So entsteht auch bei Ausfall des Hauptplattenspeichers kein allzu großer Schaden. Im Server-Bereich dagegen passiert laut Flammersfeld sehr viel. Hier werde den Betreibern eine Sicherheit vorgegaukelt, die in Wirklichkeit nicht vorhanden sei. Sie verwenden beispielsweise Raid-Systeme mit einfacher Redundanz oder gespiegelte Systeme, die logische Fehler auf die Ersatzplatte kopieren.

Ist das Kind bereits in den Brunnen gefallen, gilt es zunächst, kühlen Kopf zu bewahren. Diverse Hersteller wie Ontrack oder Convar offerieren Werkzeuge, mit denen schon relativ unbedarfte Anwender ihre Daten wiederherstellen können. Im Gegensatz dazu empfehlen professionelle Datenretter meist, keine Eigenversuche mit Datenrettungs-Tools vorzunehmen, weil sie den Schaden noch vergrößern können. Wie so oft liegt die Wahrheit in der Mitte.

Wann ist Selbsthilfe möglich?

Grundsätzlich gilt: Physikalische Probleme, insbesondere mechanische Schäden bis hin zum Headcrash, lassen sich mit einer klassischen Datenrettungs-Software nicht beheben. Sie gehören in die Hände von Experten. Im Fall von Wasser- oder Brandschäden sollte der Anwender die Festplatte nicht trocknen, sondern so wie sie ist - ob nass, verrußt oder angeschmort - , in eine Plastiktüte stecken und möglichst luftdicht verpackt einschicken. Bei Benutzerpannen und logischen Fehlern auf dem Datenträger können die Tools dagegen sehr wohl helfen. Insbesondere, wenn ein Irrtum sofort bemerkt wird - etwa nach dem versehentlichen Löschen einer Datei aus dem Papierkorb. Auch eine ungewollt formatierte Festplatte lässt sich wiederherstellen.

Die Crux dabei ist, dass es nicht immer eindeutig ist, ob ein logischer oder physikalischer Fehler vorliegt. Um zu testen, ob eine Festplatte physikalisch noch in Ordnung ist, eignet sich nach Meinung mancher Experten am besten das Gehör. "Wenn man etwas hört, ist die Platte physikalisch kaputt. Dann sollte man die Finger davon lassen", erläutert Chris Keller, zuständig für den Support bei Runtime Software in Berlin.

Scan-Werkzeuge umstritten

Strittig ist, inwiefern Tools wie der "Data Advisor" von Ontrack oder "Surface Scan" von Dtidata.com, die die Lesbarkeit eines Datenträgers vor dem Versuch einer Wiederherstellung untersuchen, hier Entscheidungshilfe liefern können. Jürgen Kupfrian, Geschäftsführer von MSS-Media sowie öffentlich bestellter und vereidigter Sachverständiger in Fragen der Datenrettung, rät davon ab: "Prüf-Tools sollte man nicht mehr einsetzen, wenn man bereits ein Problem mit der Festplatte hat." Falls ein Crash-Streifen auf der Platte sei, berühre der Schreib-Lese-Kopf immer wieder dessen Oberfläche an der kaputten Stelle und vergrößere so den Schaden. Dem widerspricht Ontrack-Geschäftsführer Peter Böhret: "Es existieren zwar Situationen, die kritisch sind. Aber die erkennt die Software und schaltet sofort ab." Ein mögliches Indiz dafür kann eine veränderte Rotationsgeschwindigkeit beim Anlaufen der Festplatte sein.

Hat man sich davon überzeugt, dass die Festplatte physikalisch in Ordnung ist, ist eine wohl überlegte Vorgehensweise angesagt: "Der erste Schritt bei der Rettung verlorener Daten ist immer die Erstellung einer Spiegelkopie", nennt Flammersfeld eine wichtige Faustregel. An dem Duplikat kann der Techniker dann alles Weitere ausprobieren, ohne das Original in Mitleidenschaft zu ziehen. Es existieren sowohl frei verfügbare wie auch kommerzielle (Cloning-)Tools, um bitgenaue Kopien zu erzeugen. Nach Angaben von Christian Scheucher, Partner bei Secunet in München, enthalten zum Beispiel die gängigen Linux-Distributionen einfache Varianten solcher Werkzeuge.

Der häufigste Fehler

Zwischen den einzelnen Kopier-Tools bestehen seiner Meinung nach gravierende Unterschiede: Die Palette reicht von grafisch gesteuerten und daher benutzerfreundlichen bis hin zu sehr technischen Produkten. Insbesondere sollten Anwender ein Auge darauf werfen, welche Festplatten-Schnittstellen die Lösung unterstützt. "Es gibt eine Handvoll üblicher Schnittstellen, mit denen die Software zurecht kommen sollte", betont Scheucher. Ähnliches gilt für die Unterstützung verschiedener Filesysteme. Unter Windows 95/98 seien die Festplatten zum Beispiel anders organisiert als unter Windows 2000 und NT, für Unix gebe es gar einen "ganzen Sack voll" verschiedener Filesysteme.

Das Klonen ist nicht die einzige notwendige Vorsichtsmaßnahme: Selbstverständlich muss der Benutzer sofort aufhören, mit der Festplatte zu arbeiten, wenn er ein Problem registriert. Sonst werden womöglich gerade die Daten überschrieben, die eigentlich gerettet werden sollen. Spätestens dann ist Hopfen und Malz verloren. Das bedingt auch, dass die Datenrettung von einem anderen funktionierenden Rechner aus vorgenommen werden muss, an den die zu untersuchende Festplatte als zweites Gerät (Slave Device) angeschlossen wird. Denn auch die Datenrettungs-Software selbst könnte Daten überschreiben und gehört daher auf eine separate Platte. Laut Keller ist das der häufigste Fehler unerfahrener Benutzer beim Versuch einer Datenrettung.

Recovery-Software erkennt Muster

Datenrettungswerkzeuge durchkämmen einen Datenträger nach bestimmten Mustern. Eine moderne Festplatte hat etwa 20 bis 30 Millionen Datenblöcke. Im Falle versehentlich gelöschter Daten sind nicht die Dateien selbst weg, sondern nur die Verweise auf ihren Speicherort. Wenn die Datenblöcke nicht mehr verwaltet werden, gleicht die Suche nach den Informationen der nach einer Stecknadel im Heuhaufen. Suchen kann man jedoch beispielsweise nach Mustern am Dateianfang, die das File als Anwendungsprogramm kennzeichnen, damit es vom Betriebssystem als solches erkannt wird.

Die Software "GetDataBack for FAT/for NTFS" des Neulings Runtime Software aus Berlin etwa führt keine Schreibzugriffe auf das Speichermedium durch. Sie untersucht von einem Zweitrechner aus die Reste des Dateisystems und rekonstruiert dort eine Art Hilfsdateisystem. Nach der Analyse offeriert die Software in der Regel mehrere Dateisysteme, die sie wiederherstellen kann. Der Anwender wählt aus, welches am ehesten mit den Informationen zu tun hat, die er auf der Platte hatte. Nach der Recovery wird ein Fenster angezeigt, in dem man sich die Daten anschauen kann.

Ein ähnliches Tool stammt von Ontrack und heißt "Easy Recovery". Die Professional-Version von Easy Recovery enthält zusätzlich zu der Wiederherstellung intakter Dateien ein Werkzeug für die Reparatur beschädigter Files ("File Repair"). Ursache des Schadens können dabei Virenangriffe, Dateikorruption oder Systemausfälle sein. Nach Angaben des Herstellers erfolgt die Reparatur automatisch und speichert die Ergebnisse in einem lesbaren File. So kann man wenigstens auf die vorhandenen Datenreste zugreifen.

Die Datenrettungs-Tools der Hersteller gehen von unterschiedlichen Voraussetzungen aus. "Wenn man so eine Software schreibt, muss man sich für ein bestimmtes Verfahren entscheiden. Verschieden sind vor allem die Prämissen, was an Datenträger und Laufwerk noch funktionieren muss", erläutertJürgen Kupfrian von MSS-Media. Solche Annahmen hängen die Hersteller natürlich aus verkaufstechnischen Gründen nicht an die große Glocke. GetDataBack for FAT/for NTFS setzt beispielsweise voraus, dass das BIOS die Festplatte noch erkennt. Dem Benutzer bleibt oft nichts übrig, als einfach auszuprobieren, welche Software sein Problem am besten löst.

An ihre Grenzen stößt Datenrettungs-Software zudem bei Unix-Servern mit komplexen Datenbanksystemen, die riesige Dateien anlegen, so Secunet-Partner Scheucher. "Oft ist die Struktur der Dateien von außen nicht mehr nachvollziehbar." Oder bei Speichersystemen, die aus einem ganzen Kleiderschrank von Festplatten bestehen und diese selbst verwalten. "Da haben Sie nur noch sehr wenige Informationen, denn eine gelöschte Datei kann über 20 Platten verteilt sein. Hier muss man sich auf das Backup verlassen."

Kosten einer Datenrettung

Ein gutes Sicherungssystem kommt meistens ohnehin billiger als eine professionelle Datenrettung. "Die Datensicherung ist verglichen mit einer Recovery immer der kostengünstigste Weg", behauptet Kupfrian. Nicht zu reden von den Nerven, die es kostet, wenn Daten verloren gehen. Eine professionelle Datenrettung gliedert sich meist in zwei Stufen: Die Voranalyse erkundet, was machbar ist und zu welchem Preis. Sie kostet zwischen 170 und 500 Euro je Datenträger. Besondere Anforderungen wie große Eile treiben den Preis in die Höhe. Kommt die Voranalyse zu einem positiven Ergebnis, schließt sich als zweite Phase die eigentliche Rettung der Daten an. Hier treten größere Preisunterschiede auf. Beginnend bei etwa 1000 Euro können die Kosten beliebig hoch werden. Im Mittelfeld bewegen sie sich um rund 3000 Euro. In 15 bis 18 Prozent der Fälle kommt jedoch jede Hilfe zu spät, weil Art und Ausmaß des Schadens zu groß sind. Nichts zu machen ist, wenn die Datenbereiche selbst richtig zerkratzt sind: "Wo keine Daten mehr sind, lässt sich auch nichts rekonstruieren", so Flammersfeld lapidar.

Links

Ibas Deutschland

www.datenrettung.de

Ontrack Data Recovery

www.ontrack.de

Convar

www.convar.de

MSS-Media

www.mss-media.com

Vogon International

www.vogon.de

Runtime Software

www.runtime.org

Dtidata.com

www.dtidata.com

Powerquest

www.powerquest.com

Symantec

www.symantec.com

Micro International

www.recoveryproduct.com

Backup als Vorsorge

-Unternehmen und Personen sollten streng darauf achten, dass regelmäßig Datensicherungen gemacht werden - besonders vor Änderungen am Betriebssystem. Nur was gesichert ist, lässt sich im Notfall wiederherstellen. Umfragen zufolge bestehen hierbei noch Defizite. Insbesondere die Notebooks der Firmenmitarbeiter sollten in das Backup-Konzept einbezogen werden. Automatische Datensicherungen können Außendienstmitarbeiter mit Notebooks schützen.

-Techniken wie Spiegelung und Replikation ersetzen nicht eine Datensicherung auf sekundäre Speichermedien wie Bandlaufwerke, mit deren Hilfe sich eine zeitliche Abfolge nachvollziehen lässt. Grund: Falls logische Fehler in den Daten entstehen, werden diese durch die Spiegelung auch unverzüglich auf die zweite Magnetplatte übertragen, so dass beide Datenträger logisch defekt sind.

-Je weiter ein Backup vom Rechenzentrum entfernt gelagert wird, um so besser ist die Absicherung gegen Katastrophen wie Terroranschläge, Überflutungen oder Erdbeben. Auf jeden Fall sollten sie nicht im selben Gebäude liegen wie die Originaldaten.

-Man sollte gelegentlich testen, ob sich die Daten noch rücksichern lassen. Fehler fallen so womöglich noch rechtzeitig auf. Auch der Übungseffekt für das Personal ist wichtig.

-Datenspeicher müssen in regelmäßigen Abständen ersetzt werden. Als Faustregel gilt: Festplatten alle drei, Bänder alle zwei und magnetoptische Speicher alle fünf bis sieben Jahre austauschen.

-Auch die Protokolle der Bandsicherung sollten ernst genommen und nicht einfach weggeklickt werden, wenn sie besagen, dass die letzte Sicherung nicht einwandfrei durchgelaufen ist.

-Prinzipiell gilt: Ein Backup hat absoluten Vorrang. Nur wenn trotzdem etwas schiefläuft, kommt eine Datenrettung in Frage.

Quelle: Veritas Software, MSS-Media

Abb: Ursachenstatistik

Benutzerfehler verursachen mit 45 Prozent einen hohen Anteil der Datenverluste. Hier kann Datenrettungs-Software helfen. Quelle: Micro International