Advanced Analytics und Big Data

Neue Produkte für Analysen und das Daten-Management

21.11.2016 von Martin Bayer
Datenanalysen können das eigene Geschäft beflügeln. Doch dafür braucht es die richtigen Lösungen und Werkzeuge. Die Hersteller bringen laufend neue Tools für Advanced Analytics und Big Data auf den Markt. Lesen Sie, welche Tools Ihnen weiterhelfen können.

+++ Analytics as a Service – SAS führt Advanced Analytics on Demand ein +++

Analytics- und Business-Intelligence-(BI-)Spezialist SAS will seinen Kunden ab sofort anspruchsvolle Analysen auch on Demand anbieten. Anders als bei herkömmlichen Software-as-a-Service-(SaaS-)Modellen handle es sich bei „SAS Results“ allerdings um keinen Universalservice, der standardisiert in verschiedenen Firmen zum Einsatz kommt. SAS Results sei vielmehr eine maßgeschneiderte, situationsgerechte Vorgehensweise, bei der Analytics-Experten, branchenübergreifende Kompetenzen und spezialisierte Inhouse-Mitarbeiter gleichermaßen eingebunden seien, beschreiben die SAS-Verantwortlichen ihren Dienst.

Damit umwirbt der Anbieter Firmen, die spezifische analytische Probleme zügig lösen wollen, ohne dafür in Infrastrukturen investieren und internes Know-how aufbauen zu müssen. Typische Anwendungsbereiche seien beispielsweise Kundenprofiling und -segmentierung, Kundenbindungsstrategien, Response- Modellierung, Profitabilitätsberechnung und Betrugsprävention. Mit dem On-Demand-Service könnten Unternehmen die Hürden umgehen, die oft eine Nutzung von Analytics im Unternehmen behindern, stellt SAS seinen Kunden in Aussicht. Dazu gehörten fehlende Qualifikation für Datenanalysen, knappe Ressourcen sowohl beim Personal als auch in der Infrastruktur sowie zu komplexe Fragestellungen, die mit internen Mitteln nicht zu beantworten seien.

"Der Kunde bringt SAS die Daten und sein Geschäftsproblem – und bekommt das Ergebnis zurück", erklärte Laurie Miles, Director Global Cloud Analytics von SAS. Der Service eignet sich dem Anbieter zufolge für Unternehmen und Fachabteilungen aller Größen. Über ein flexibles Kostenmodell könnten Firmen die Analytics-Dienste auch für spezifische Geschäfts- und Analyseanforderungen einsetzen. Was der Service genau kostet und welche Abrechnungsmetriken zum Einsatz kommen, hat der Anbieter im Detail bis dato allerdings noch nicht bekannt gegeben. (November 2016)

+++ Red Hat Insights bringt Predictive Analytics zu Containern, OpenStack und virtualisierten Infrastrukturen +++

Red Hat hat die nächste Generation von Red Hat Insights präsentiert. Die Software-as-a-Service-Plattform bietet künftig operative Analysen über physische und virtuelle Infrastrukturen, Container sowie Private- und Public-Cloud-Umgebungen hinweg. Darüber hinaus hat der Anbieter seine Lösung für operative Analysen um zusätzliche Funktionen erweitert, die Anwendern eine Risikobewertung und die Sanierungsplanung für Virtualisierungshosts, Container und OpenStack-basierte Private Clouds ermöglichen sollen.

Workloads entwickeln sich weiter und Umgebungen nehmen an Größe und Komplexität zu, beschreiben die Red-Hat-Verantwortlichen die IT-Infrastruktur ihrer Kunden. Das Risikomanagement sei deshalb eine zentrale Herausforderung und eine Notwendigkeit für die Unternehmens-IT. Red Hat Insights bietet zu diesem Zweck laut Hersteller Predictive Analytics über hybride IT-Infrastrukturen hinweg. Die Lösung generiere zudem Schritte zur Sanierung, die sich vollumfänglich automatisieren ließen. Die Nutzer könnten mit der Lösung ihre Infrastruktur verwalten und überwachen, und, wenn sie die mit Red Hat Satellite und RedHat CloudForms integrierten Versionen nutzen, direkt aus den Analysen heraus die nötigen Aktionen durchführen.

Zu den Neuerungen von Red Hat Insights zählen:

"Die Cloud-basierten Service Deployments nehmen weiter an Umfang und Komplexität zu, gleichzeitig sind Container-basierte Services immer mehr verbreitet", sagt Joe Fitzgerald, Vice President, Management, bei Red Hat. Das könne IT-Abteilungen unter Druck setzen, ihre operativen Fähigkeiten schnell weiterzuentwickeln. "Wir haben die Tiefe und Breite der Analysen von Red Hat Insights erweitert, um diese neuen Umgebungen und Services beim Erfüllen ihrer Ziele zu unterstützen", verspricht der Manager. "Mit der neuen Version von Red Hat Insights dehnen wir die Cloud-Management-Funktionen auf Container und OpenStack-basierte Private Clouds aus."

+++ Exasol bietet seine In-Memory Datenbank auch über AWS an +++

Exasol baut den Support für Cloud-Plattformen weiter aus. Der Anbieter aus Nürnberg hat bekannt gegeben, dass die eigene analytische In-Memory-Datenbank auch auf Amazon Web Services (AWS) über den AWS Marketplace verfügbar ist. Unternehmen könnten ab sofort Exasols Datenbanklösung nutzungsbasiert (Pay-As-You-Go) über den Amazon Marketplace einsetzen und abrechnen. Eine flexible Preisgestaltung erlaube den Einsatz der Technologie in der EC2 Cloud auch mit kleineren Budgets, verspricht der Hersteller.

Die 1-Klick Installation über die AWS Konsole soll die Lösung innerhalb weniger Minuten verfügbar machen. Das Angebot beinhalte zudem Community-Support. Umfangreicher Support könne zusätzlich individuell vereinbart werden. "Die Unterstützung der führenden Cloud-Plattform Amazon Web Services über den AWS Marketplace bereichert das bisherige Plattformangebot von EXASOL um eine weitere Option, die dem Wunsch nach Agilität bei gleichzeitiger Vermeidung initialer Investitionen nachkommt", sagte Jens Graupmann, Vice President Product Management bei Exasol. Dies eröffne auch jungen oder kleineren Unternehmen neue Möglichkeiten bei den Themen Echtzeit-Analyse, Reporting und Business Intelligence. "Wir möchten mit diesem Angebot neue Kundengruppen gewinnen", hofft der Exasol-Manager.

Neben Amazon Web Services und der klassischen On-Premise-Installation lässt sich Exasol auch auf anderen Plattformen betreiben, unter anderem: Microsoft Azure, Bigstep und EXACloud. Die EXACloud ist EXASOLs eigenes Database-as-a-Service-Angebot.

+++ EDB startet operationale Datenbank-Management-Plattform +++

Mit der "EDB Postgres Platform" hat Enterprise DB eine neue Datenplattform vorgestellt, auf deren Basis Anwenderunternehmen das Handling ihrer Daten effizienter abwickeln könnten. Der Hersteller beschreibt seine Lösung als integrierte operationale Daten-Management-Plattform auf Open-Source-Basis, die verschiedene Komponenten für die Verwaltung von strukturierten und unstrukturierten Daten in einem föderierten Modell vereinige. Die Plattform ermögliche die Integra­tion verschiedener Datenbanken, unterstütze aber auch die Kombination unstrukturierter Daten von NoSQL-Lösungen und transaktionaler Unternehmensdaten in strukturierten relationalen Systemen.

Kunden können zwischen zwei EDB-Postgres-Database-Server-Versionen wählen: dem "EDB Postgres Standard Server", einer Open-Source-PostgreSQL-Datenbank, oder dem "EDB Postgres Advanced Server", einer erweiterten Version von PostgreSQL mit ausgebauter Performance, Skalierbarkeit sowie Sicherheitsfunktionen und Kapazitäten für den professionellen Unternehmenseinsatz. Die Plattform beinhaltet dem Hersteller zufolge darüber hinaus eine "Management Suite" mit Funktionen für Disaster Recovery sowie für das Monitoring und Management des Gesamtsystems. Der Anbieter verspricht an dieser Stelle schnellere Multi-Master-Replika­tion sowie die Bereitstellung privater Clouds auf Basis von OpenStack.

Mit Hilfe der ebenfalls integrierten "Migration Suite" sollen Anwender mit ihren Workloads leichter umsteigen können. EDB verweist an dieser Stelle ausdrücklich auf die Kompatibilität der Lösung mit Oracle-Systemen. Die "Integration Suite" soll Anwender dabei unterstützen, die Plattform mit anderen Systemen wie beispielsweise Hadoop und MongoDB zu verknüpfen. Dafür ständen eine Reihe von Datenadaptern zur Verfügung, die auf der Foreign-Data-Wrapper- (FDW-)Technik von Postgres basierten.

Die EDB Postgres-Plattform umfasst im Einzelnen:

EDB Postgres-Plattform - Features und Funktionen:

+++ Atos baut integrierte Lösung für Data Lakes und Analytics +++

Über seine Technologiemarke Bull hat Atos die Big-Data-Lösung "Data Lake and Analytics Factory by bullion" vorgestellt. Integriert mit dem bullion Server als Plattform soll die Lösung Anwendern dabei helfen, Daten zu erfassen, zu speichern und zu analysieren. Dadurch erhöhe sie die Flexibilität, Sicherheit und Effizienz bei der Echtzeit-Datenanalyse. Unternehmen könnten so schnell und kosteneffizient Mehrwert aus bestehenden Daten ziehen, verspricht der Hersteller. Data Lake and Analytics Factory by bullion basiere auf einer offenen Architektur, die sich einfach implementieren und integrieren lassen soll, und zudem moderne Analysewerkzeuge enthalte, hieß es. Ein vorkonfigurierter Data Lake soll sich damit innerhalb weniger Wochen implementieren, dazugehörige Big-Data-Anwendungen in Tagen anstatt in Wochen oder Monaten entwickeln lassen.

Der Bullion-Server bildet die Grundlage für die neue Data-Lake- und Analyics-Lösung von Atos. Die technische Basis dafür stammt vom Server-Spezialisten Bull, den Atos 2014 übernommen hatte.
Foto: Atos

Die Software-Suite bietet laut Hersteller folgende Elemente:

Arnaud Bertrand, Senior Vice President des Bereichs Big Data & HPC bei Atos, meint: "Wir haben das Ziel, Kunden beim Übergang zu Big Data zu unterstützen. Mit Data Lake and Analytics Factory by bullion können Unternehmen Big-Data-Lösungen mithilfe einer effizienten, sicheren und leistungsfähigen Lösung schneller implementieren. Eine End-to-End-Integration - von der Hardware- bis zur Softwareebene - steigert dabei die Performance."

+++ Alteryx Analytics 10.5 bindet mehr Datenquellen ein +++

Alteryx, Inc. hat die Verfügbarkeit seiner neuen Version Alteryx Analytics 10.5 bekannt gegeben. , die es Analysten, auch in den Fachabteilungen, sollen damit in die Lage versetzt werden, Daten aus verschiedenen Quellen aufzubereiten und zu verbinden. Darüber hinaus biete das neue Release laut Hersteller mehr Möglichkeiten, Self-Service-Funktionen organisationsweit zu skalieren. Alteryx verspricht Anwendern mit Analytics 10.5 mehr Produktivität durch:

Alteryx Analytics 10.5
Foto: Alteryx

+++ Sinequa 10 integriert Machine-Learning-Algorithmen +++

Sinequa hat die neue Version 10 seiner gleichnamigen Search- und Analyse-Plattform veröffentlicht. Features für maschinelles Lernen sollen tiefere Analysen von Inhalten und Nutzerverhalten liefern. Die selbstlernende Plattform für kognitive Suche und Analyse mache Informationen für Nutzer im Self-Service verfügbar und sei für Administratoren einfach steuerbar, verspricht der Hersteller.

Sinequa hat das Apache Spark Framework für Cluster Computing in seine Architektur integriert. So könnten die Vorteile der rechnerintensiven Machine-Learning-Algorithmen besser ausgeschöpft werden. Kontinuierlich analysierten diese die Inhalte des Sinequa Logical Data Warehouse und reicherten dessen Inhalt an. Das Logical Warehouse stellt das Datenreservoir aller von Sinequa analysierten und indizierten Unternehmensinhalte dar. Mit Hilfe der neu implementierten Algorithmen liefere die kognitive Plattform in der Version 10 laut Anbieter bessere Einblicke und relevantere Informationen, die sich stärker an den Anforderungen der Nutzer orientierten.

Dreh- und Angelpunkt der Sinequa Architektur ist das Logical Data Warehouse, in dem sämtliche Informationen zusammenfließen.
Foto: Sinequa

Neben den Machine-Learning-Algorithmen enthält Release 10 weitere neue Features: Eingebaut ist beispielsweise Sinequa "Native Resident" von Cloud-Plattformen wie Amazon Web Services (AWS) und Microsoft Azure und optimiert die Nutzung der Ressourcen dieser Plattformen. Für Kunden im Bereich Life Science und Health Care wurden branchenspezifische Werkzeuge für ontologische und schnelle Textindizierung von Partnern wie Scibite und Lingua integriert. Sinequa verwendet außerdem Google Vision und Microsoft Azure Media Services, um Videos und Bildern effektiver zu verwalten. Google wird außerdem für die automatisierte Übersetzung von über 100 Sprachen verwendet. Mit plug&play-Anbindungen zu mehr als 150 verschiedensten Repositories für strukturierte und unstrukturierte Daten wächst zudem die Konnektivität von Sinequa, um zusätzliche Erkenntnisse aus Enterprise Applications, Hadoop und Cloud-Umgebungen zu generieren.

+++ EMC präsentiert mit Unity neues All-Flash-Array +++

EMC hat auf der EMC World in Las Vegas "Unity" vorgestellt. Dabei handelt es sich eine neue Familie von Speicher-Produkten, die Kunden die Modernisierung ihrer Rechenzentren erleichtern sollen. Unity ergänzt EMCs All-Flash-Portfolio eigenen Angaben zufolge um preiswerte Speicher für File- und Blockstorage und richtet sich vor allem an kleine und mittlere IT-Organisationen. EMC vervollständigt damit sein All-Flash-Angebot aus XtremIO, VMAX All Flash und dem erst kürzlich vorgestellten Hochleistungspeicher DSSD D5.

Unity bietet Anwendern eine HTML5-basierte Benutzeroberfläche mit einer Aufgaben-orientierten Struktur, die sich dem Hersteller zufolge einfach in VMware- und Microsoft-Umgebungen integrieren lassen soll. Unity verfüge außerdem über Proactive-Assist-Features, hieß es. Diese ermöglichten IT-Verantwortlichen, die Speichersysteme zu prüfen, zu steuern und weitgehend automatisiert zu verwalten. Überdies könnten Anwender Informationen zu ihren Unity-Geräten auch über EMC MyService360 abrufen, einer neuen Online-Serviceplattform für Echtzeit-Einblicke in Zustand und Gesundheit von EMC-Ressourcen.

EMCs neues All-Flash-Array "Unity" richtet sich in erster Linie an kleinere und mittelgroße IT-Organisationen.
Foto: EMC

Unity erreicht EMC zufolge bis zu 300k IOPS (Input/Output Operations per Second) und biete damit drei mal mehr Leistung als frühere VNX-Arrays. Das sind weitere Features von Unity:

In ein 2-U-Array passen bis zu 80 TB All-Flash-Storage. Unity ermögliche EMC zufolge außerdem eine enge Verzahnung mit EMC Data Domain und der EMC Data Protection Suite. Das soll sicherstellen, dass Workloads jederzeit gut geschützt sind. Die Preise für All-Flash-Konfigurationen beginnen bei unter 18.000 Dollar, die für Hybrid-Konfigurationen bei unter 10.000 Dollar.

+++ SAS Analytics IoT für Streaming - und Sensordaten +++

SAS hat mit "Analytics for IoT" verschiedene Softwarekomponenten zu einer Gesamtlösung gebündelt, die die Analyse sich schnell bewegender und extrem großer Datenmengen aus dem Internet of Things (IoT) erleichtern soll. Organisationen könnten mit Hilfe von Event Stream Processing volatile Datenströme bereits direkt nach ihrer Entstehung interpretieren und als Basis für strategische Entscheidungen nutzen, versrpicht der Softwarehersteller. SAS kombiniert in Analytics for IoT Streaming-Techniken, Analysen und Branchenerfahrung, um aus IoT-Daten Mehrwert zu generieren. Im Einzelnen geht es um Folgendes: