IBM DB2 Version 10

Gerüstet für Big Data

Sponsored Sponsored
Beitrag in Zusammenarbeit mit IBM
05.10.2012 | von 
Klaus Manhart
Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.
Email:
Im Zeitalter von Big Data müssen Datenbanken zunehmend mit großen und unstrukturierten Datenmengen umgehen. Speziallösungen sind dafür nicht notwendig. IBM hat in Version 10 seines Datenbanksystems DB2 eine Reihe von Techniken integriert, die sowohl strukturierte als auch nicht-strukturierte Massendaten vorhalten - und für schnelle Analysen bereitstellen können.
Wie groß ist ein Petabyte? Mit Daten dieser Größenordnung kann DB2 umgehen - ein DB2-Projekt in Irland ist damit als größtes Datawarehouse ins Guinness Book der Rekorde eingegangen.
Wie groß ist ein Petabyte? Mit Daten dieser Größenordnung kann DB2 umgehen - ein DB2-Projekt in Irland ist damit als größtes Datawarehouse ins Guinness Book der Rekorde eingegangen.
Foto: IBM

Eines der derzeit größten Data-Warehouses befindet sich in Irland im IBM Technology Campus in Dublin. Drei Petabyte an Rohdaten, also 3.000 Terabyte, hat die IBM-Datenbanklösung DB2 dort zu bewältigen. Damit das reibungslos über die Bühne geht, wird eine Reihe von Technologien eingesetzt, die für den Umgang mit solchen Datenmengen konzipiert sind.

Für Standarddatenbanken wie DB2 ist Big Data eine große Herausforderung: Zum einen geht es darum, große Datenmengen möglichst effizient und kostensparend zu speichern. Zum anderen müssen die Datenbanken lernen, mit völlig neuen Datentypen umzugehen, die sozialen Netzen, Sensoren oder mobilen Geräten entstammen.

Vor allem drei Big-Data-Problemstellungen müssen Unternehmen heute meistern und sollten daher von modernen Datenbank-Lösungen unterstützt werden:

  • Vielfalt (Variety) - Big Data geht über strukturierte Daten hinaus und umfasst unstrukturierte Daten aller Typen: Text, Audio, Video, Klick-Streams, Protokolldateien etc.

  • Geschwindigkeit (Velocity) - Big-Data-Daten sind oft zeitkritisch und müssen daher sofort verarbeitet werden, wenn sie in das Unternehmen einfließen, damit ihr geschäftlicher Wert optimal genutzt wird.

  • Masse (Volume) - Für Big Data gibt es nur eine Größenordnung: groß. Unternehmen versinken geradezu in einer Datenflut, die vielfach Tera- oder - sogar wie im Beispiel oben - Petabytegröße erreicht.

Die neue Version 10 von DB2 10 und andere IBM-Software bietet die Technologien, mit denen sich diese Herausforderungen in allen drei Dimensionen - Vielfalt, Geschwindigkeit und Masse - meistern lassen.