Von IoT bis Big Data

So vermeiden Sie die größten Stolperfallen beim Datenmanagement

01.02.2018
Von 
Gabriel Chaher ist Vice President, Global Market Development bei Quantum. Er verfügt über mehr als 15 Jahre Erfahrung in den Bereichen Storage, Backup und Archivierung. Der gebürtige Franzose beschäftigt sich insbesondere mit sehr datenintensiven Branchen, die innerhalb ihrer Speicherumgebung spezielle Ansprüchen an Kapazität, Performance und einfachen Datenzugriff stellen. Gabriel Chaher konzentriert sich in seinen Beiträgen vornehmlich auf die Branchen Filmindustrie, wissenschaftliche Forschung oder Videoüberwachung.
Data makes the world go round. In einer Welt, die aus selbstfahrenden Autos, selbst einkaufenden Kühlschränken und operierenden Robotern besteht, ist der intelligente Umgang mit digitalen Daten zwingend notwendig.

Der vertrauensvolle Umgang mit Daten spiegelt sich in der Erfassung, Analyse und Sicherung von Daten wider, kurzum: in einer soliden Datenmanagement-Strategie. Schien es manch einem so, dass dies längst bei jedem IT-Verantwortlichen angekommen ist, der mag mit der jüngsten Ransomware Wanna Cry eine harte Landung auf dem Boden der Tatsachen erlebt haben.

Denn viele Unternehmen, deren Systeme mit Wanna Cry gekapert wurden, mussten schmerzlich feststellen, dass schlicht weg nicht ausreichend Sicherheitskopien vorhanden waren. Dabei sollten gerade Unternehmen und Organisationen in datenintensiven Branchen ein durchdachtes Backup / Restore- und Storage-Konzept vorweisen können. Es scheint, als ob dieses in so mancher IT-Abteilung als lästige Hausaufgabe angesehen wird.

Dies liegt wohl daran, dass in Sachen Datensicherung oder besser gesagt Datenmanagement so manche Stolperfalle lauert. Die Speicherarchitektur soll skalierbar und nutzerfreundlich sein, sprich einen unkomplizierten Datenzugang ermöglichen. Ebenso soll sie effizient und schnell remonetarisierbar sein. Nur leider werden im Zuge eines Backup- und Storage-Konzeptes allzu oft mehrere wesentliche Fehler gemacht:

Worum geht's eigentlich: Backup- oder Archivdaten?

IT-Verantwortliche, Systemverwalter und Administratoren unterscheiden oft nicht zwischen Backup- und Archivdaten. Unseren Erfahrungen zufolge halten heute noch die meisten Unternehmen im Durchschnitt 40 Prozent ihrer inaktiven Daten auf der teuersten Speicher-Ebene vor, dem Primärspeicher. Dieses Vorgehen treibt die Kosten unnötig in die Höhe. Als Faustregel gilt daher: In den Backup-Prozess sollten nur Daten einfließen, die einen signifikanten Wert für die Wiederherstellung von zwei Wochen bis 24 Monaten haben und die jederzeit ohne Verzögerungen zur Verfügung stehen müssen.

Unter Archivierung hingegen versteht man Datensätze, die sporadisch abgerufen werden, die entweder aus branchenspezifischen Regularien oder aus Compliance-Gründen langfristig vorgehalten werden oder von denen man ausgeht, dass sie einen langfristigen Wert für das Unternehmen haben. Wie so oft liegt auch hier der Teufel im Detail, der richtige Ansatz kann aber immens viel Geld sparen.

Backup: Zur richtigen Zeit am richtigen Ort

Kaum zu glauben, aber leider wahr: Backups werden immer noch viel zu selten, das heißt in zu großen Intervallen durchgeführt. Ein automatisiertes Vollbackup aller Systeme und Datenbanken, etwa am Wochenende außerhalb der Bürozeiten, ist obligatorisch.

Umso wichtiger ist es jedoch, das Backup an den tatsächlichen Datenfluss anzupassen, etwa in Form von differenziellen Sicherungen aller Daten einmal pro Tag oder zu besonderen Stoßzeiten, wobei nur neu hinzugekommene Daten gesichert werden. Dabei sollte als weitere Faustregel befolgt werden, dass man am besten alle inkrementellen Backups bis zur Wochensicherung aufbewahrt. Im Falle eines kompletten Crashdowns des Systems lässt sich so nämlich am besten ein vollständiges Restore durchführen.

Nicht nur die richtige Zeit, sondern der richtige Ort ist beim Backup entscheidend. Eine Backupkopie ist schließlich nur dann gut aufbewahrt, wenn sie dezentral gelagert wird, sprich: an einem anderen Ort als das Original. Bei der Wahl eines Speichersystems für Backup-Zwecke gibt es zahlreiche Möglichkeiten, angefangen von Deduplizierungs-Appliances hin zu Standardblock- oder NAS-Speichersystemen, Hybrid- oder Public-Cloud für externen DR-Schutz und auch Tape.

Datenarchivierung: Tape oder Tiered Storage

Datenarchivierung mit dem Einsatz von Tape-Lösungen gleich. Auch wenn Tape eine günstige Option mit einem effizienten Schutz gegen Cyberkriminalität bietet und daher sicherlich als Bestandteil einer langfristigen Datenvorhaltung geeignet ist: Es gibt zig andere Speichermedien, sei es Disk oder Object Storage, die mit der entsprechenden Ausrichtung an die Unternehmensziele und Workflows ebenso gut eingesetzt werden können.

Als Faustregel gilt hier, dass man sich nicht nur auf ein Medium verlassen sollte. Basis einer soliden Datenmanagementarchitektur sollte eine sogenannte Tiered Storage Architektur sein, die mithilfe von Richtlinien Daten nach Relevanz und Zugriffshäufigkeit unterschiedlichen Speicherebenen und -medien zuweist. Dabei werden die Vorteile verschiedener Technologien kombiniert, darunter etwa für Deduplizierung optimiertes RAID, Object Storage, Public und Private Cloud Storage oder eben auch Tape-Technologien wie LTFS. Dahinter verbirgt sich das Linear Tape File System (LTFS), mit dem Tapes nahezu wie Festplatten genutzt werden und Dateien per Drag-and-Drop von dem Server aus direkt auf das Band gezogen werden können.

Letzten Endes geht es bei einem wirklich guten Datenspeicher- bzw. Datenmanagement-Ansatz um nichts anderes, als um das richtige Verhältnis zwischen Datenwert und Speicherkosten. Nehmen Unternehmen einen Fußabdruck ihrer Daten, können beispielsweise unstrukturierte Daten, für die kein Backup benötigt wird, aus dem Backup-Stream entfernt und in die Archivierungsinfrastruktur geschoben werden.

Unstrukturierte Daten können nach entsprechenden Kriterien klassifiziert und verwaltet werden. Diese intensive Betrachtung des eigenen Datenbestands bedeutet zwar einigen Initialaufwand. Allerdings sollte nicht zuletzt mit WannaCry deutlich geworden sein, dass in einer Datengetriebenen Welt schnell sichtbar wird, wer in puncto Datensicherung seine Hausaufgaben gewissenhaft erledigt hat - und wer eben nicht. (hal)