Datenverlust auf Server und Storage vermeiden

Die 10 häufigsten IT-Datenkatastrophen 2018

16.01.2019
Von 
Bernhard Haluschak war Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.

Inkompatibilitäten zwischen den virtuellen Welten nicht beachtet

Bleiben wir beim Thema Technologie-Update: Unternehmen wechseln häufig ihre Applikationen. Das ist gut und richtig, denn der IT-Markt entwickelt sich rasant. Was heute noch hip ist, kann in wenigen Jahren schon alt und unbrauchbar sein. Probleme entstehen jedoch, wenn alte und neue Systeme kombiniert werden. So zum Beispiel bei Hyper-V von Microsoft und ESXi von VMware. Vor ein paar Jahren war die eine Technologie für ein Unternehmen noch ein Must-Have, doch kurze Zeit später plötzlich die andere.

Um Geld zu sparen, rüsten Unternehmen dann oftmals halbherzig auf und ergänzen eine bestehende Technologie (Legacy) um eine andere, anstatt alles neu aufzusetzen. Doch auch, wenn Unternehmen bereits viel Geld in eine Technologie gesteckt haben, sollten sie idealerweise ganz aufrüsten oder gar nicht. Denn ansonsten bestehen plötzlich zwei Welten, die nicht miteinander kompatibel sind und bei denen es zu Kopplungsverlusten kommt. Durch die Verschiedenheit der Systeme lassen sich Daten oft nicht direkt umziehen, und drohen durch komplexe "selbstgebastelte Lösungen" verloren zu gehen. Leider kommt auch dieses Szenario in der Praxis recht häufig vor.

Falsch gesetzte Retention Zeiten bei Backups missachtet

Glücklich ist wer Dark-Data weitgehend minimiert hat, wichtige Daten identifiziert und Aufbewahrungszeiten in sogenannten Retention Times festgelegt hat. Wenn Mitarbeiter Daten löschen wollen, erscheint nicht immer die Frage: "Sind Sie sicher?" Denn: Oftmals können per Mausklick oder Bestätigungstaste Befehle durchgesetzt werden, die Datensicherungseinstellungen aufheben, zum Beispiel, dass Datei xy aus rechtlichen Gründen 10 Jahre lang aufbewahrt werden muss. Es passiert auch den geschulten Experten, dass diese sogenannte Retention-Zeiten erheblich verkürzt werden. Und plötzlich werden Daten nicht mehr nach 10 Jahren, sondern 3 Monaten gelöscht. Das passiert etwa, wenn die Dateien ähnlich heißen und Adminrechte an Programmen nicht klar definiert werden. Zugang zu den entsprechenden Tools sollten nur zuverlässigen IT- und Security-Verantwortlichen vorbehalten sein. Wer ganz auf Nummer scher gehen will, schränkt auch den Zugang zur Serverstruktur ein.

Mal schnell aufräumen und nicht dokumentieren, was man gemacht hat

Eine Ontrack-Studie zeigt: 77 Prozent der IT-Abteilungen sind überlastet. Klar, dass da einige Dinge liegen bleiben können. So fehlt jedem zweiten IT-Mitarbeiter die Zeit, Vorgänge und Prozesse regelmäßig zu dokumentieren. Dieses Verhalten ist jedoch auf lange Sicht ein fataler Fehler. So kann nicht nachvollzogen werden, welche Daten wann wo gespeichert wurden. Und auch die Rettung der Daten wird so erschwert. Denn wenn nicht genau rekapituliert kann, was passiert ist, wird der Wiederherstellungsvorgang aufwendiger und teurer - unter anderem, weil Datenretter mehre Orte nach Datenspuren durchsuchen müssen.

Verantwortlichkeiten für das Backup nicht klar definiert

Ein Backup kann sehr komplex sein. Daher sollte nicht "irgendein" Mitarbeiter für die Datensicherung zuständig sein, sondern ein ausgewiesener Experte. Gerade kleine Niederlassungen sichern ihre Daten in Außenbüros. Da sie sich nicht immer Backup-Fachleute leisten können, ist vielleicht ein normaler Mitarbeiter für das regelmäßige Kopieren der Daten, den Bändertausch und Transport in den Tresor zuständig, vergisst dabei die Sicherung oder macht einen Fehler.

Auch sollte ein externer Dienstleister für die Backup-Erstellung gut gewählt sein. Er muss nicht nur wissen, wie welche Speichermedien zu behandeln sind, sondern auch die Datenschutzrichtlinien kennen. Ist ein Backup einmal eingerichtet, ist dies außerdem keine Gewährleistung, dass es auf ewig funktioniert. Know-how spielt also bei dem Thema eine große Rolle. Unternehmen sollten für sich hier Risiken und Kosten abwägen.

Notfallplan nach Datenverlust auf Server nicht erstellt

Ein Unternehmen hat bemerkt, dass Daten auf einem Server fehlen. Normalerweise sollte der Server direkt gesperrt, isoliert und der aktuelle Datenbestand eingefroren werden. Geschieht das nicht und arbeiten Unternehmen normal auf ihm weiter, werden wichtige Bereiche überschrieben, die für die Rettung der verlorenen Daten notwendig ist. Allerdings ist es vielen meist nicht möglich, den Server direkt zu isolieren. Denn dazu ist ein Ersatz nötig, also eine andere Umgebung, auf der in dieser Zeit weitergearbeitet werden kann. Diesen haben viele nicht. Damit riskieren sie den endgültigen Verlust von Daten. Besonders fatal ist es, wenn der Datenverlust lange nicht bemerkt wird. Unternehmen sollten also nicht vor dem (finanziellen) Aufwand zurückscheuen, genügend Manpower, Ersatz-Server und vernünftige Backups zu installieren.

Firmware-Probleme neuster Geräte nicht beachtet

Ein letzter Fehler, der häufig vorkommt, aber nicht unbedingt menschengemacht ist: Firmware-Probleme. Gerade das Topmanagement von Unternehmen benutzt gerne die neuesten, hippsten Geräte. Diese haben aber oft Kinderkrankheiten. Die Art und Weise, wie die Algorithmen arbeiten, könnte fehlerhaft sein. Manager stehen dann vor dem Problem, dass sie keinen Zugriff auf ihre Daten haben, oder der Zugriff auf ältere Daten extrem langsam ist. Manchmal sind Daten gar nicht mehr verfügbar und es ist schwerer nachzuvollziehen, wann, wie, was und wo gelöscht worden ist. Da die Geräte noch nicht lange auf dem Markt sind, gibt es vielleicht noch keine Lösungen für solche Probleme. Unternehmen sollten sich daher überlegen, ob es wirklich direkt die neueste Technologie sein muss.