Big Data Management

Informatica baut integrierte Big-Data-Plattform

18.11.2015
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Eine integrierte Lösung für das Handling von Big Data verspricht Informatica seinen Kunden. "Big Data Mangement" vereint Funktionen für Integration, Datenqualität und Sicherheit unter einem Dach.

Integrationsspezialist Informatica will sich stärker als Anbieter von Big-Data-Lösungen positionieren. Dafür hat der Softwarehersteller sein "Big Data Management" vorgestellt. Die Lösung soll verschiedene Funktionsblöcke für das Handling großer Datenmengen unter einem Dach vereinen. Dazu zählen Big Data Integration, Big Data Quality und Governance sowie Big Data Security. Informatica verspricht Anwendern, mit der Lösung die Komplexität von Big-Data-Projekten zu reduzieren. Demnach seien manuelle Programmierung und Big-Data-Fertigkeiten, die sowohl teuer als auch schwierig zu finden sind, kaum noch erforderlich.

Informaticas Big Data Management bietet mehr als 200 vorgefertigte Konnektoren, mit deren Hilfe verschiedenste Datentypen in Big-Data-Plattformen wie Hadoop, NoSQL und MPP-Systeme eingespeist werden könnten. Für die Weiterverarbeitung der Daten stehen mehr als 100 vorgefertigte Transformationen und Parser zur Verfügung. Diese führen Daten­integration und Datenqualität nativ auf Hadoop, sagt der Hersteller, und ermöglichen so eine skalier­bare Verarbeitung großer Datensätze. Mit Hilfe von Assistenten und Mapping-Templates ließen sich Daten aus unterschiedlichen Datenquellen in einem Data Lake oder betrieblichen Data Store bereitstellen. Produktivität und Wartung würden durch die automatische Generierung des Datenstroms zur Laufzeit verbessert und vereinfacht. Dank dynamischer Schemata bestehe zudem Konnektivität mit flexiblen Datenformaten.

Weitere Funktionen der Informa­tica-Lösung sollen Datenqualität und Data Governance verbessern. Dazu zählen beispielsweise das Profiling und die Identifizierung von Daten. Das bringe Probleme und Anomalien bei der Datenqualität ans Licht. Zudem könnten Anwender Regeln und Warnungen zum Zwecke des Monitorings erstellen, um Qualitätsprobleme nachzuverfolgen und zu kennzeichnen.