Big Data 2013 - IBM

IBM Infosphere Streams filtert Datenströme in Echtzeit

07.08.2013
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Um Daten effizient analysieren und nutzen zu können, benötigen die Unternehmen heute neue Methoden und Werkzeuge. IBM hat mit "Infosphere Streams" ein Tool entwickelt, das Daten in Echtzeit analysieren kann, ohne dass diese gespeichert werden müssen.

Die Lösung InfoSphere Streams resultiert aus einem Pionierprojekt der IBM Forschung. IBM integriert in dem Softwarepaket eine Entwicklungsplattform sowie eine Laufzeitumgebung, die es Unternehmen erlaubt, Echtzeitdatenströme kontinuierlich zu filtern und zu analysieren. Das können zum Beispiel Netzwerknachrichten, Videos, Audio, Feeds, Sensoren oder GPS-Daten sein. Dabei müssen die zu untersuchenden Daten nicht gespeichert werden.

InfoSphere Streams beschränkt sich nicht nur auf klassische strukturierte Daten, sondern kann prinzipiell alle Analysen, die sich algorithmisch formulieren lassen, auf beliebigen Daten anwenden, darunter auch auf Audio und Videoströme, verspricht der Hersteller. Das Werkzeug erlaubt die kontinuierliche Analyse aller Daten in Echtzeit. Dabei können die Analysen beliebig komplex sein, von der Integration von Echtzeit Scoring basierend auf Data Mining bis hin zu Textanalysen sowie Audio- und Videoanalytik.

InfoSphere Streams soll das Analysieren von Echtzeitdatenströmen so einfach wie möglich machen. Grundlage dafür sind die leicht zu erlernende Streams Processing Language (SPL), die Möglichkeit vorhanden Code wie zum Beispiel C, C++ oder Java zu integrieren, um vorhandene Logik wiederzuverwenden, der Drag&Drop Editor sowie die visuelle Anwendungsentwicklung. InfoSphere Streams soll so Anwendern kurze Projektlaufzeiten, größtmögliche Agilität und geringe Einarbeitungsaufwände ermöglichen.

InfoSphere Streams enthält darüber hinaus eine Vielzahl fertiger Konnektoren und offener Schnittstellen, die dem Hersteller zufolge eine einfache Integration in bestehende IT Landschaften erlauben. Dies beinhaltet zum Beispiel Hadoop, eine Vielzahl an Datenbanken, aber auch Protokolle wie MQTT, Datenintegrationswerkzeuge wie InfoSphere Information Server und Prozessintegration mit Suchtechnologie wie dem IBM Data Explorer.

Die Software arbeitet IBM zufolge sehr effizient und benötigt nur wenig Rechenleistung. So sei die komplexe Analyse von mehreren Tausend Nachrichten pro Sekunde mit nur einem einzigen x86 Prozessorkern keine Seltenheit. Dabei erlaubt die vollautomatische Verteilung aller Operatoren eine flexible und praktisch unbeschränkte Skalierbarkeit. InfoSphere Streams Cluster seien in der Lage, Millionen von Events pro Sekunde mit Latenzzeiten im Mikrosekundenbereich zu verarbeiten, und nutzten dabei konform mit der Big Data Idee Standard-Hardware für größtmögliche ökonomische Effizienz.

Für alle Administrations- und Entwicklungsaufgaben bringt die Lösung grafische Werkzeuge mit, um die Nutzung möglichst einfach und intuitiv zu gestalten - gerade angesichts des Fachkräftemangels im Bereich Big Data ein wichtiger Punkt. Dies ermöglicht neben schneller Adaption vor allem eine agile Entwicklung und reduziert die Entwicklungsaufwände. Die grafischen Werkzeuge enthalten vielfach kleine Helfer (Wizzards) für Standardaufgaben sowie dokumentierte Lernbeispiele für einen schnellen und praxisorientierten Start. Darüber hinaus sind auch branchenspezifische Verfahren unter anderem für den Finanz- und Telekommunikationssektor enthalten.

Neugierig geworden? Sie interessieren sich für die Lösung und das Big-Data-Werkzeug? IBM präsentiert seine Analyse-Software "Infosphere Streams" auf dem COMPUTERWOCHE-Kongress "Best in Big Data" am 24. September 2013 in Frankfurt am Main.

Die besten Big Data Projekte

Der COMPUTERWOCHE-Kongress und -Award "Best in Big Data" geht 2013 in die zweite Runde. Neben zahlreichen Fachvorträgen werden live auf der Bühne wegweisende Referenzprojekte und innovative Technologien aus dem Bereich Big Data gezeigt. Anbieter bekommen die Möglichkeit, ihre Lösungen sowie konkrete Big-Data-Best-Practices einer breiten Öffentlichkeit vorzustellen.

Best in Big Data.
Best in Big Data.

IT-Verantwortliche und Entscheider erhalten auf Best in Big Data wertvolle Informationen, wie sie innovative Impulse im Bereich Data Management und Business Analytics setzen und damit Mehrwert für das Business erzeugen können. Der Fokus liegt dabei auf bahnbrechenden neuen Technologien sowie wegweisenden Best-Practice-Beispielen. Hochrangige Experten zeigen und erklären die Trends. Anhand der vorgestellten Projekte wird praxisnah demonstriert, wie sich die aktuellen Herausforderungen rund um Big Data lösen lassen.

Best-in-Big-Data-Award

Eine renommierte Fachjury begutachtet im Vorfeld die eingereichten "Big Data Practices". Der große Auftritt der Finalisten folgt am 24. September in Frankfurt. Dort präsentieren die Bewerber ihr Projekt in einem zehnminütigen Vortrag und stellen sich den Fragen der Jury. Die Experten bewerten die Präsentationen und ermitteln die Gewinner der diesjährigen "Best in Big Data Awards". Darüber hinaus können auch die Besucher durch ihr eigenes Voting einen Publikumspreis vergeben. Alle Gewinner werden im Rahmen eines festlichen Gala-Abends gekürt und gefeiert. Sämtliche Finalisten erhalten zudem ein Zertifikat der COMPUTERWOCHE.

Alle Fakten zu Best in Big Data