Advanced Analytics und Big Data

Neue Produkte für Analysen und das Daten-Management

21.11.2016
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Datenanalysen können das eigene Geschäft beflügeln. Doch dafür braucht es die richtigen Lösungen und Werkzeuge. Die Hersteller bringen laufend neue Tools für Advanced Analytics und Big Data auf den Markt. Lesen Sie, welche Tools Ihnen weiterhelfen können.

+++ Analytics as a Service – SAS führt Advanced Analytics on Demand ein +++

Analytics- und Business-Intelligence-(BI-)Spezialist SAS will seinen Kunden ab sofort anspruchsvolle Analysen auch on Demand anbieten. Anders als bei herkömmlichen Software-as-a-Service-(SaaS-)Modellen handle es sich bei „SAS Results“ allerdings um keinen Universalservice, der standardisiert in verschiedenen Firmen zum Einsatz kommt. SAS Results sei vielmehr eine maßgeschneiderte, situationsgerechte Vorgehensweise, bei der Analytics-Experten, branchenübergreifende Kompetenzen und spezialisierte Inhouse-Mitarbeiter gleichermaßen eingebunden seien, beschreiben die SAS-Verantwortlichen ihren Dienst.

Damit umwirbt der Anbieter Firmen, die spezifische analytische Probleme zügig lösen wollen, ohne dafür in Infrastrukturen investieren und internes Know-how aufbauen zu müssen. Typische Anwendungsbereiche seien beispielsweise Kundenprofiling und -segmentierung, Kundenbindungsstrategien, Response- Modellierung, Profitabilitätsberechnung und Betrugsprävention. Mit dem On-Demand-Service könnten Unternehmen die Hürden umgehen, die oft eine Nutzung von Analytics im Unternehmen behindern, stellt SAS seinen Kunden in Aussicht. Dazu gehörten fehlende Qualifikation für Datenanalysen, knappe Ressourcen sowohl beim Personal als auch in der Infrastruktur sowie zu komplexe Fragestellungen, die mit internen Mitteln nicht zu beantworten seien.

"Der Kunde bringt SAS die Daten und sein Geschäftsproblem – und bekommt das Ergebnis zurück", erklärte Laurie Miles, Director Global Cloud Analytics von SAS. Der Service eignet sich dem Anbieter zufolge für Unternehmen und Fachabteilungen aller Größen. Über ein flexibles Kostenmodell könnten Firmen die Analytics-Dienste auch für spezifische Geschäfts- und Analyseanforderungen einsetzen. Was der Service genau kostet und welche Abrechnungsmetriken zum Einsatz kommen, hat der Anbieter im Detail bis dato allerdings noch nicht bekannt gegeben. (November 2016)

+++ Red Hat Insights bringt Predictive Analytics zu Containern, OpenStack und virtualisierten Infrastrukturen +++

Red Hat hat die nächste Generation von Red Hat Insights präsentiert. Die Software-as-a-Service-Plattform bietet künftig operative Analysen über physische und virtuelle Infrastrukturen, Container sowie Private- und Public-Cloud-Umgebungen hinweg. Darüber hinaus hat der Anbieter seine Lösung für operative Analysen um zusätzliche Funktionen erweitert, die Anwendern eine Risikobewertung und die Sanierungsplanung für Virtualisierungshosts, Container und OpenStack-basierte Private Clouds ermöglichen sollen.

Workloads entwickeln sich weiter und Umgebungen nehmen an Größe und Komplexität zu, beschreiben die Red-Hat-Verantwortlichen die IT-Infrastruktur ihrer Kunden. Das Risikomanagement sei deshalb eine zentrale Herausforderung und eine Notwendigkeit für die Unternehmens-IT. Red Hat Insights bietet zu diesem Zweck laut Hersteller Predictive Analytics über hybride IT-Infrastrukturen hinweg. Die Lösung generiere zudem Schritte zur Sanierung, die sich vollumfänglich automatisieren ließen. Die Nutzer könnten mit der Lösung ihre Infrastruktur verwalten und überwachen, und, wenn sie die mit Red Hat Satellite und RedHat CloudForms integrierten Versionen nutzen, direkt aus den Analysen heraus die nötigen Aktionen durchführen.

Zu den Neuerungen von Red Hat Insights zählen:

  • Workload-Analysen für Container: Damit erhalten die operativen IT-Teams die kritischen Erkenntnisse, die sie benötigen, um Container sicherer einführen zu können. Red Hat Insights identifiziert dem Anbieter zufolge Risiken auf verschiedenen Ebenen der Infrastruktur. Dazu zählen die Service-Konfiguration innerhalb eines Image, das Tuning und die Konfiguration von Container-Storage für eine optimale Performance und das Filesystem-Monitoring, um die Gewährleistung der Registry-Funktionalität zu unterstützen. Die Aktionen von Insights sind speziell für die spezifischen Images oder Container ausgelegt, so dass die Nutzer unkomplizierter auf Risiken reagieren können sollen.

  • Sofort verwertbare Erkenntnisse für OpenStack-Private-Clouds und KVM-virtualisierte Umgebungen: Red Hat Insights arbeitet sowohl auf Infrastruktur- als auch auf Guest-Ebene und bietet Anwendern Echtzeit-Analysen für OpenStack-Private-Clouds und Umgebungen, die auf Red Hat Enterprise Virtualization basieren. Damit dehnt Red Hat Insights seine Analysen auf multiple OpenStack-Nodes aus und ermöglicht ein kontinuierliches Assessment von Private-Cloud-Infrastrukturen, die sowohl Red Hat OpenStack Platform Guests als auch die OpenStack-Infrastruktur beinhalten. Darüber hinaus bietet Red Hat Insights auch Analytics auf der Ebene der Virtualisierungshosts und proaktive Analysen für das komplette virtuelle Rechenzentrum.

  • Ein Aktivitätenplaner: Mit diesem neuen Feature der Dashboards von Insights sollen Teams Sanierungsaufgaben individuell oder gruppenweise identifizieren und zuweisen können. IT-Abteilungen seien so in der Lage, den Sanierungsprozess einfacher dokumentieren sowie Aktionen leichter anstoßen und die Compliance-Richtlinien des Change Management erfüllen zu können. Die Lösung ermögliche es, individuelle Sanierungspläne zu erstellen, biete aber auch empfohlene Pläne an, die für die spezifischen Infrastrukturen und Risiken maßgeschneidert sind.

  • Ein Early-Access-Modus: Nutzer erhalten via Opt-in Einblicke in anstehende neue Features, können deren Funktionalitäten testen, Feeback geben und die Weiterentwicklung von Red Hat Insights mitgestalten. Sie können zwischen den beiden Modi hin und her wechseln und so neue Innovationen ausprobieren, ohne dadurch ihr vorhandenes System zu beeinträchtigen.

"Die Cloud-basierten Service Deployments nehmen weiter an Umfang und Komplexität zu, gleichzeitig sind Container-basierte Services immer mehr verbreitet", sagt Joe Fitzgerald, Vice President, Management, bei Red Hat. Das könne IT-Abteilungen unter Druck setzen, ihre operativen Fähigkeiten schnell weiterzuentwickeln. "Wir haben die Tiefe und Breite der Analysen von Red Hat Insights erweitert, um diese neuen Umgebungen und Services beim Erfüllen ihrer Ziele zu unterstützen", verspricht der Manager. "Mit der neuen Version von Red Hat Insights dehnen wir die Cloud-Management-Funktionen auf Container und OpenStack-basierte Private Clouds aus."

+++ Exasol bietet seine In-Memory Datenbank auch über AWS an +++

Exasol baut den Support für Cloud-Plattformen weiter aus. Der Anbieter aus Nürnberg hat bekannt gegeben, dass die eigene analytische In-Memory-Datenbank auch auf Amazon Web Services (AWS) über den AWS Marketplace verfügbar ist. Unternehmen könnten ab sofort Exasols Datenbanklösung nutzungsbasiert (Pay-As-You-Go) über den Amazon Marketplace einsetzen und abrechnen. Eine flexible Preisgestaltung erlaube den Einsatz der Technologie in der EC2 Cloud auch mit kleineren Budgets, verspricht der Hersteller.

Die 1-Klick Installation über die AWS Konsole soll die Lösung innerhalb weniger Minuten verfügbar machen. Das Angebot beinhalte zudem Community-Support. Umfangreicher Support könne zusätzlich individuell vereinbart werden. "Die Unterstützung der führenden Cloud-Plattform Amazon Web Services über den AWS Marketplace bereichert das bisherige Plattformangebot von EXASOL um eine weitere Option, die dem Wunsch nach Agilität bei gleichzeitiger Vermeidung initialer Investitionen nachkommt", sagte Jens Graupmann, Vice President Product Management bei Exasol. Dies eröffne auch jungen oder kleineren Unternehmen neue Möglichkeiten bei den Themen Echtzeit-Analyse, Reporting und Business Intelligence. "Wir möchten mit diesem Angebot neue Kundengruppen gewinnen", hofft der Exasol-Manager.

Neben Amazon Web Services und der klassischen On-Premise-Installation lässt sich Exasol auch auf anderen Plattformen betreiben, unter anderem: Microsoft Azure, Bigstep und EXACloud. Die EXACloud ist EXASOLs eigenes Database-as-a-Service-Angebot.

+++ EDB startet operationale Datenbank-Management-Plattform +++

Mit der "EDB Postgres Platform" hat Enterprise DB eine neue Datenplattform vorgestellt, auf deren Basis Anwenderunternehmen das Handling ihrer Daten effizienter abwickeln könnten. Der Hersteller beschreibt seine Lösung als integrierte operationale Daten-Management-Plattform auf Open-Source-Basis, die verschiedene Komponenten für die Verwaltung von strukturierten und unstrukturierten Daten in einem föderierten Modell vereinige. Die Plattform ermögliche die Integra­tion verschiedener Datenbanken, unterstütze aber auch die Kombination unstrukturierter Daten von NoSQL-Lösungen und transaktionaler Unternehmensdaten in strukturierten relationalen Systemen.

Kunden können zwischen zwei EDB-Postgres-Database-Server-Versionen wählen: dem "EDB Postgres Standard Server", einer Open-Source-PostgreSQL-Datenbank, oder dem "EDB Postgres Advanced Server", einer erweiterten Version von PostgreSQL mit ausgebauter Performance, Skalierbarkeit sowie Sicherheitsfunktionen und Kapazitäten für den professionellen Unternehmenseinsatz. Die Plattform beinhaltet dem Hersteller zufolge darüber hinaus eine "Management Suite" mit Funktionen für Disaster Recovery sowie für das Monitoring und Management des Gesamtsystems. Der Anbieter verspricht an dieser Stelle schnellere Multi-Master-Replika­tion sowie die Bereitstellung privater Clouds auf Basis von OpenStack.

Mit Hilfe der ebenfalls integrierten "Migration Suite" sollen Anwender mit ihren Workloads leichter umsteigen können. EDB verweist an dieser Stelle ausdrücklich auf die Kompatibilität der Lösung mit Oracle-Systemen. Die "Integration Suite" soll Anwender dabei unterstützen, die Plattform mit anderen Systemen wie beispielsweise Hadoop und MongoDB zu verknüpfen. Dafür ständen eine Reihe von Datenadaptern zur Verfügung, die auf der Foreign-Data-Wrapper- (FDW-)Technik von Postgres basierten.

Die EDB Postgres-Plattform umfasst im Einzelnen:

  • Die Auswahl zwischen zwei EDB Postgres Database-Serverversionen: EDB Postgres Standard Server, eine Open Source PostgreSQL-Datenbank oder EDB Postgres Advanced Server, eine erweiterte Version von PostgreSQL mit ausgebauter Performance, Skalierbarkeit sowie Sicherheitsfunktionen und Kapazitäten für den professionellen Unternehmenseinsatz;

  • Management-Suite;

  • Migration-Suite;

  • Integration-Suite;

  • Support und Services.

EDB Postgres-Plattform - Features und Funktionen:

  • EDB Replication Server;

  • Cloud Management, Bereitstellung privater Clouds auf OpenStack;

  • Datenadapter für die Integration von EDB Postgres mit anderen Datenmanagement-Lösungen, um hybride Datenplattformen zu erstellen: Hadoop, MongoDB und MySQL Datenadapter.

+++ Atos baut integrierte Lösung für Data Lakes und Analytics +++

Über seine Technologiemarke Bull hat Atos die Big-Data-Lösung "Data Lake and Analytics Factory by bullion" vorgestellt. Integriert mit dem bullion Server als Plattform soll die Lösung Anwendern dabei helfen, Daten zu erfassen, zu speichern und zu analysieren. Dadurch erhöhe sie die Flexibilität, Sicherheit und Effizienz bei der Echtzeit-Datenanalyse. Unternehmen könnten so schnell und kosteneffizient Mehrwert aus bestehenden Daten ziehen, verspricht der Hersteller. Data Lake and Analytics Factory by bullion basiere auf einer offenen Architektur, die sich einfach implementieren und integrieren lassen soll, und zudem moderne Analysewerkzeuge enthalte, hieß es. Ein vorkonfigurierter Data Lake soll sich damit innerhalb weniger Wochen implementieren, dazugehörige Big-Data-Anwendungen in Tagen anstatt in Wochen oder Monaten entwickeln lassen.

Der Bullion-Server bildet die Grundlage für die neue Data-Lake- und Analyics-Lösung von Atos. Die technische Basis dafür stammt vom Server-Spezialisten Bull, den Atos 2014 übernommen hatte.
Der Bullion-Server bildet die Grundlage für die neue Data-Lake- und Analyics-Lösung von Atos. Die technische Basis dafür stammt vom Server-Spezialisten Bull, den Atos 2014 übernommen hatte.
Foto: Atos

Die Software-Suite bietet laut Hersteller folgende Elemente:

  • Kombinierte Produkte, um zentrale Datenverarbeitungs- und Analysefunktionen, wie intelligente Protokollanalyse, Suche und Geolokalisierung, bereitzustellen.

  • Moderner Data Lake auf Hadoop-Basis, der sich schnell bereitstellen und einfach verwalten lassen soll. Data Scientists könnten dadurch den Verwaltungsaufwand verringern und durch die zusätzlichen Ressourcen Mehrwert schaffen.

  • Self-Service-Katalog, der mittels validierter und zielgerichteter Vorgaben den Zugang zu Komponenten vereinfachen, die Effizienz der Bereitstellung verbessern und so IT-Prozesse optimieren soll.

  • Flexible und skalierbare Software-Ebene, die das Datenwachstum in unterschiedlichen Umgebungen (On-Premise oder in der Cloud) unterstützen soll.

Arnaud Bertrand, Senior Vice President des Bereichs Big Data & HPC bei Atos, meint: "Wir haben das Ziel, Kunden beim Übergang zu Big Data zu unterstützen. Mit Data Lake and Analytics Factory by bullion können Unternehmen Big-Data-Lösungen mithilfe einer effizienten, sicheren und leistungsfähigen Lösung schneller implementieren. Eine End-to-End-Integration - von der Hardware- bis zur Softwareebene - steigert dabei die Performance."

+++ Alteryx Analytics 10.5 bindet mehr Datenquellen ein +++

Alteryx, Inc. hat die Verfügbarkeit seiner neuen Version Alteryx Analytics 10.5 bekannt gegeben. , die es Analysten, auch in den Fachabteilungen, sollen damit in die Lage versetzt werden, Daten aus verschiedenen Quellen aufzubereiten und zu verbinden. Darüber hinaus biete das neue Release laut Hersteller mehr Möglichkeiten, Self-Service-Funktionen organisationsweit zu skalieren. Alteryx verspricht Anwendern mit Analytics 10.5 mehr Produktivität durch:

Alteryx Analytics 10.5
Alteryx Analytics 10.5
Foto: Alteryx
  • Zugriff auf Cloud-Daten und andere Big-Data-Quellen – Datenanalysten sollen neue Erkenntnisse durch die Einpflege von Daten aus Amazon Aurora, Google Sheets, Adobe Analytics und Salesforce.com erhalten. Zudem hätten sie auch die Möglichkeit, große Datenmengen ohne HQL- oder SQL-Kodierung direkt in Apache Hive und Microsoft Azure SQL Data Warehouse aufzubereiten und zu verknüpfen.

  • Einfache Bereitstellung und Skalierbarkeit der Analytik – Datenanalysten seien mit dem neuen Release in der Lage, ihren Workflow als anpassbare Anwendung sicher auf dem Alteryx Server bereitzustellen und die Self-Service Data Analytics damit einem größeren Teil der Organisation zugänglich zu machen, ohne die Data Governance zu gefährden.

  • Zunahme der Anzahl an Geschäftsanalysten – Analysten könnten in allen geografischen Regionen schneller Erkenntnisse gewinnen, so der Hersteller. Damit gebe es auch mehr Möglichkeiten, Workflow-Mustertools und vorgefertigte Analysen zur Generierung komplexer Analysen in Englisch, Französisch und Deutsch zu nutzen und anderen Analysten dabei zu helfen, ihre analytischen Fertigkeiten auszubauen. Mit zusätzlichen neuen internationalen raumbezogenen Drittdaten und Geo-Referenzierungsfähigkeiten für Kanada, das Vereinigte Königreich/Irland, Kontinentaleuropa, Australien/Neuseeland und Brasilien ließen sich zudem nun auch komplizierte Raumanalysen im globalen Maßstab durchführen.

+++ Sinequa 10 integriert Machine-Learning-Algorithmen +++

Sinequa hat die neue Version 10 seiner gleichnamigen Search- und Analyse-Plattform veröffentlicht. Features für maschinelles Lernen sollen tiefere Analysen von Inhalten und Nutzerverhalten liefern. Die selbstlernende Plattform für kognitive Suche und Analyse mache Informationen für Nutzer im Self-Service verfügbar und sei für Administratoren einfach steuerbar, verspricht der Hersteller.

Sinequa hat das Apache Spark Framework für Cluster Computing in seine Architektur integriert. So könnten die Vorteile der rechnerintensiven Machine-Learning-Algorithmen besser ausgeschöpft werden. Kontinuierlich analysierten diese die Inhalte des Sinequa Logical Data Warehouse und reicherten dessen Inhalt an. Das Logical Warehouse stellt das Datenreservoir aller von Sinequa analysierten und indizierten Unternehmensinhalte dar. Mit Hilfe der neu implementierten Algorithmen liefere die kognitive Plattform in der Version 10 laut Anbieter bessere Einblicke und relevantere Informationen, die sich stärker an den Anforderungen der Nutzer orientierten.

Dreh- und Angelpunkt der Sinequa Architektur ist das Logical Data Warehouse, in dem sämtliche Informationen zusammenfließen.
Dreh- und Angelpunkt der Sinequa Architektur ist das Logical Data Warehouse, in dem sämtliche Informationen zusammenfließen.
Foto: Sinequa

Neben den Machine-Learning-Algorithmen enthält Release 10 weitere neue Features: Eingebaut ist beispielsweise Sinequa "Native Resident" von Cloud-Plattformen wie Amazon Web Services (AWS) und Microsoft Azure und optimiert die Nutzung der Ressourcen dieser Plattformen. Für Kunden im Bereich Life Science und Health Care wurden branchenspezifische Werkzeuge für ontologische und schnelle Textindizierung von Partnern wie Scibite und Lingua integriert. Sinequa verwendet außerdem Google Vision und Microsoft Azure Media Services, um Videos und Bildern effektiver zu verwalten. Google wird außerdem für die automatisierte Übersetzung von über 100 Sprachen verwendet. Mit plug&play-Anbindungen zu mehr als 150 verschiedensten Repositories für strukturierte und unstrukturierte Daten wächst zudem die Konnektivität von Sinequa, um zusätzliche Erkenntnisse aus Enterprise Applications, Hadoop und Cloud-Umgebungen zu generieren.

+++ EMC präsentiert mit Unity neues All-Flash-Array +++

EMC hat auf der EMC World in Las Vegas "Unity" vorgestellt. Dabei handelt es sich eine neue Familie von Speicher-Produkten, die Kunden die Modernisierung ihrer Rechenzentren erleichtern sollen. Unity ergänzt EMCs All-Flash-Portfolio eigenen Angaben zufolge um preiswerte Speicher für File- und Blockstorage und richtet sich vor allem an kleine und mittlere IT-Organisationen. EMC vervollständigt damit sein All-Flash-Angebot aus XtremIO, VMAX All Flash und dem erst kürzlich vorgestellten Hochleistungspeicher DSSD D5.

Unity bietet Anwendern eine HTML5-basierte Benutzeroberfläche mit einer Aufgaben-orientierten Struktur, die sich dem Hersteller zufolge einfach in VMware- und Microsoft-Umgebungen integrieren lassen soll. Unity verfüge außerdem über Proactive-Assist-Features, hieß es. Diese ermöglichten IT-Verantwortlichen, die Speichersysteme zu prüfen, zu steuern und weitgehend automatisiert zu verwalten. Überdies könnten Anwender Informationen zu ihren Unity-Geräten auch über EMC MyService360 abrufen, einer neuen Online-Serviceplattform für Echtzeit-Einblicke in Zustand und Gesundheit von EMC-Ressourcen.

EMCs neues All-Flash-Array "Unity" richtet sich in erster Linie an kleinere und mittelgroße IT-Organisationen.
EMCs neues All-Flash-Array "Unity" richtet sich in erster Linie an kleinere und mittelgroße IT-Organisationen.
Foto: EMC

Unity erreicht EMC zufolge bis zu 300k IOPS (Input/Output Operations per Second) und biete damit drei mal mehr Leistung als frühere VNX-Arrays. Das sind weitere Features von Unity:

  • Unterstützung für File, Block und VVols,

  • Snapshots und Remote-Sync- beziehungsweise -async-Replikation,

  • native, Controller-basierte Verschlüsselung,

  • neues, skalierbares Dateisystem für transaktionale und herkömmliche Anwendungen,

  • integrierbar mit VMware VASA 2.0, VAAI, VVols, VMware-Aware,

  • vollständige REST-API für Automation und DevOps,

  • integriertes Copy Data Management durch EMC iCDM,

  • Zero-impact garbage collection,

  • skaliert bis zu 3 Petabyte Kapazität.

In ein 2-U-Array passen bis zu 80 TB All-Flash-Storage. Unity ermögliche EMC zufolge außerdem eine enge Verzahnung mit EMC Data Domain und der EMC Data Protection Suite. Das soll sicherstellen, dass Workloads jederzeit gut geschützt sind. Die Preise für All-Flash-Konfigurationen beginnen bei unter 18.000 Dollar, die für Hybrid-Konfigurationen bei unter 10.000 Dollar.

+++ SAS Analytics IoT für Streaming - und Sensordaten +++

SAS hat mit "Analytics for IoT" verschiedene Softwarekomponenten zu einer Gesamtlösung gebündelt, die die Analyse sich schnell bewegender und extrem großer Datenmengen aus dem Internet of Things (IoT) erleichtern soll. Organisationen könnten mit Hilfe von Event Stream Processing volatile Datenströme bereits direkt nach ihrer Entstehung interpretieren und als Basis für strategische Entscheidungen nutzen, versrpicht der Softwarehersteller. SAS kombiniert in Analytics for IoT Streaming-Techniken, Analysen und Branchenerfahrung, um aus IoT-Daten Mehrwert zu generieren. Im Einzelnen geht es um Folgendes:

  • Nützliche Daten finden: Intelligentes Filtern soll Unternehmen helfen, sich auf die Daten zu konzentrieren, die weiterverwendet werden sollen, statt kostspielig alle Daten zu speichern.

  • Muster in den Daten erkennen: Organisationen könnten SAS zufolge IoT- Daten in angeschlossenen Systemen durchsuchen und analysieren sowie mit anderen Kontextinformationen kombinieren, um relevante Muster zu erkennen.

  • Analysieren, noch während die Daten fließen: SAS Analytics for IoT sorgt für eine Analyse direkt im Daten-Stream (Event Stream Processing). Anwender könnten sich bei ihren Echtzeitaktionen auf Signale stützen, sofort nachdem sie erzeugt wurden – von einfachen Alerts bis zu komplexen automatischen Antworten.