Datenverlust auf Server und Storage vermeiden

Die 10 häufigsten IT-Datenkatastrophen 2018

16.01.2019
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.
Ob Cloud, IoT, Digitalisierung vor Datenverlust kann sich keine IT-Technologie 100 Prozent schützen. Die Experten von Ontrack haben für 2018 die zehn häufigsten Datenpannen in den IT-Abteilungen ermittelt und geben Tipps, wie man diese vermeiden kann.
Datenpannen und damit einhergehender Datenverlust sind oft hausgemacht.
Datenpannen und damit einhergehender Datenverlust sind oft hausgemacht.
Foto: Peshkova - shutterstock.com

Ein Datenverlust im Unternehmen kostet Geld und bewirkt oft einen enormen Imageschaden. Obwohl die Experten in den IT-Abteilungen der Unternehmen ihr Möglichstes tun, um solche Datenkatastrophen zu vermeiden - sie passieren dennoch und dass trotz aller Sicherheitsmaßnahmen die getroffen wurden. Die Datenrettungsspezialisten von Ontrack haben anhand ihrer täglichen Rettungseinsätze in 2018 die zehn häufigsten Zwischenfälle aus den Hilferufen der IT-Abteilungen zusammengestellt. Darüber hinaus geben sie Tipps, mit welchen Präventivmaßnahmen man solche Datenpannen vermeidet.

Wichtige Snapshots von virtuellen Maschinen gelöscht

Unternehmen nutzen häufig verschiedene Softwareumgebungen für Tests und Updates von Programmen, die sie erst mal von ihren Produktivsystemen trennen wollen. Dafür eignen sich virtuelle Maschinen (VM) auf Testsystemen. Die Technologie ist schnell verfügbar, einfach und kostengünstig nutzbar.

Eine virtuelle Maschine bildet die Rechnerarchitektur eines real in Hardware existierenden oder hypothetischen Rechners nach. Neben der Basis-Installation in eine -flat.vmdk-Datei, beinhalten VMs auch Snapshots. Diese sind Schnappschüsse, also Momentaufnahmen einer virtuellen Maschine, die in einer -delta.vmdk-Datei abgelegt werden.

Ein Snapshot erlaubt es, bestimmte Einstellungen oder Installationen zu testen, ohne irreparable oder nur schwer rückgängig zu machende Fehler zu riskieren. Bei einem Snapshot wird nicht nur der Dateistand gesichert, sondern auch die dazugehörende Hardware-Konfiguration. Wie bei einem inkrementellen Backup bauen sich neue Snapshots einer VM wie eine Kaskade aufeinander auf.

Wer jedoch viele Tests durchführt und viele Snapshots unterschiedlicher VMs gespeichert hat, kann bei den teils ähnlichen Dateinamen leicht durcheinanderkommen. Zum Beispiel, indem versehentlich der falsche Snapshot gelöscht wird, ohne dass er vorher gesichert wurde. Das passiert schnell, ein falscher Mausklick genügt und die Daten sind weg. Daher sollten Unternehmen hier nie sensible Daten speichern - erst recht nicht ohne Backup - und beim Aufräumen der Snapshots besonders aufmerksam vorgehen.

Nur Snapshots als Backup gesichert

Es genügt bei VMs allerdings keinesfalls, nur die Snapshots im Backup zu speichern. Denn ein Snapshot ist nur ein Teil der kompletten Maschine, sozusagen eine Momentaufnahme. Die Grundinstallation des Ganzen besteht aus einer -flat.vmdk-Datei, die Ausgangspunkt für mehrere Klone bildet. Sie enthält wichtige Basisinformationen, die in den einzelnen Snapshots alleine nicht gespeichert sind. Um keine Daten zu verlieren, sollte die Ursprungsmaschine daher auch unbedingt ins gleiche Backup fließen.

Ungeeignete Backup-Tools für VMs und Datenbanken genutzt

Doch auch beim Backup von VMs und Datenbanken lauern noch Fallstricke, die zu häufigen Fehlern führen. Backup ist nicht gleich Backup - bei VMs ist darauf zu achten, dass die Datensicherungstools auf dem neuesten technischen Stand sind. Denn bei virtuellen Dateisystemen handelt es sich um offene Dateien, also Daten, die durch die Snapshot-Technologie im laufenden Betrieb stets aktualisiert werden.

Problematisch wird es auch, wenn VMs im laufenden Betrieb zwischen Servern umgezogen werden und sich in einem anderen Speicherbereich befinden. Kritisch bis leichtfertig wird es, wenn Backup-Tools genutzt werden, die schon ein paar Jahre alt sind. Das gleiche gilt für Datenbanktools.

Daher empfiehlt es sich regelmäßig, das Update-Datum der Tools sowie die Unterstützung der jeweiligen virtuellen Systeme beziehungsweise die Kompatibilität zu überprüfen.

Veraltete Prozesse zur Datensicherung verwendet

Besonders ärgerlich für eine IT-Abteilung ist es, wenn die falschen Datensätze im Backup liegen und die richtigen nicht mehr auffindbar sind. Das passiert, wenn die verantwortlichen Mitarbeiter nicht auf dem neusten Wissensstand beziehungsweise die festgelegten Prozesse zur Datensicherung nicht mehr aktuell sind. Dazu ein Beispiel:

Fachbereiche des Unternehmens wechseln den Speicherplatz auf den Servern ohne die IT-Abteilung zu informieren. Dieser Server hat jedoch andere Sicherungseinstellungen und Funktionalitäten. In diesem Fall müssen alle Anwendungen, die das Business eines Unternehmens ausmachen, angepasst werden. Dazu ist es nötig, genau zu wissen, wo welche Daten auf dem Server abgelegt werden und wie sie bei einem Ausfall aus dem Backup wieder eingespielt werden können. Und liegen die Daten auch wirklich da, wo sie sollen?

Ebenso müssen die Verantwortlichen wissen, welche Art Disaster Recovery für diese Anwendung nötig ist und das in einem Notfallplan festschreiben. Darin sollten detaillierte Handlungsempfehlungen stehen und auch ein Worst-Case-Szenario abgedeckt sein.

Zu den Aufgaben eines IT-Verantwortlichen zählt auch, das regelmäßige Überprüfen der Backups inklusive des Speicherortes. Das ist etwa durch einen Live-Test möglich. Doch viele IT-Abteilungsleiter scheuen diesen Arbeitsaufwand. Ein Fehler!