Database Award 2012

Das macht ein herausragendes Datenbank-Projekt aus

06.02.2012
Von 
Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.

Appliances werden immer wichtiger

CW: Gibt es in dem Bereich spezielle Trends?

In dem Kontext werden sogenannte Appliances immer wichtiger, die eine optimal aufeinander abgestimmte Systemumgebung für spezielle Anforderungen bieten, zum Beispiel Oracle’s Exadata Database Machine oder auch schon länger auf dem Markt etablierte Systeme wie Teradata, die konkret im Kontext Data Warehouse ihren Ursprung haben.

CW: Ein großes Thema ist derzeit Big Data. Spielen großen Datenmengen tatsächlich bei aktuellen Datenbank-Projekten eine große Rolle?

Ja, große Datenmengen beziehungsweise große Datenwachstumsraten sind in immer mehr Projekten ein wichtiger Faktor. Waren vor fünf Jahren Datenbanken im Terabyte-Bereich noch eher selten, so sind heute Datenvolumina von mehreren 10 Terabyte üblich. Richtig große Datenbanken reichen dann oft in den Peta- oder gar Exabyte-Bereich hinein. Leider ist es nicht immer so, dass die Unternehmen wissen, welchen "Datenschatz" sie eigentlich im Keller haben. Meist ist es so, dass die Unmengen an Daten gar nicht wirklich sinnvoll ausgewertet und verwendet werden können.

CW: Bei großen Datenmengen müsste die Datenqualität noch mehr leiden als bei normalgroßen Datenmengen. Potenziert sich das Qualitätsproblem bei Big Data?

Ja. Das große Datenvolumen bringt häufig auch den Nebeneffekt mit, dass die Qualität der Daten unzureichend ist. Insbesondere bei großen Data Warehouses und den darauf aufbauenden Business Intelligence Lösungen ist das ein großes Problem, denn diese gelten oft als "Single Point of Truth" und damit als Basis für strategische Unternehmensentscheidungen. Stimmt die Qualität dieser Basis nicht, birgt das naturgemäß hohe Risiken. Dabei ist jedoch in der Regel nicht alleine die Tatsache ausschlaggebend, dass es sich um große Datenmengen handelt, sondern vielmehr dass die Quellen ungenügende Qualität liefern. Zwischengeschaltete Datenqualitäts-Lösungen können hier auch nur einen kleinen Teil zur Verbesserung der Lage beitragen.