Vom Speicher bis zur Analyse

Wie NetApp zum Cloud-Integrator werden will

13.12.2018
Von 
Karin Quack arbeitet als freie Autorin und Editorial Consultant vor allem zu IT-strategischen und Innovations-Themen. Zuvor war sie viele Jahre lang in leitender redaktioneller Position bei der COMPUTERWOCHE tätig.

Multi-Cloud-Kontrollebene mit Kubernetes

Noch ganz frisch, nämlich vom September 2018, ist die Übernahme des Kubernetes-Spezialisten StackPointClouddurch NetApp. Der brachte das Know-how mit, um eine Multi-Cloud-Kontrollebene zu entwickeln, mit der sich Anwendungs-Container zwischen unterschiedlichen Umgebungen hin- und herschieben lassen. Mit dem "Kubernetes-Service" will NetApp auch das Zusammenspiel von Entwicklung und Betrieb (DevOps) unterstützen. Dank einer Verlängerung des Service in die Datenschicht hinein bleiben die Daten auch dann erhalten, wenn der Microservice selbst nicht mehr existiert.

Diese Softwareprodukte wurden bereits vor einigen Wochen auf der "NetApp Insight 2018" in Las Vegas vorgestellt. Für die Veranstaltung in Barcelona hatte sich NetApp unter anderem einen Backup-Service für Salesforce.com-Anwendungen (NetApp SaaS Backup) aufgehoben.

Selbstverständlich müsse der Anwender selbst dafür sorgen, dass die Daten seiner SaaS-Anwendungen revisionssicher abgelegt würden und im Falle eines Falles verfügbar blieben, erinnerte NetApp seine Kunden. Mit dem neuen Service ließen sich sensible Daten kontrollieren, automatisierte Backups erstellen und Granular-on-Demand-Restrukturierungen vornehmen. Auf diese Weise seien Salesforce-Daten gegen versehentliches Löschen sowie gegen Korruption oder böswillige Veränderung geschützt.

Einfache Migration von File-basierenden Workloads

Azure NetApp Files ist ein neuer Service, der unternehmensweite Storage- und Management-Fähigkeiten bereitstellt. Damit lassen sich File-basierende Workloads nach Azure migrieren und dort „ausliefern“. Entwickelt von NetApp, wird der Service direkt von Microsoft vermarktet und supportet. Derzeit befindet er sich im Preview-Status, er soll aber in den kommenden Monaten von Amsterdam, Dublin und den USA aus angeboten werden.

Einen ähnlichen Service hat NetApp für die Google-Plattform gebaut. "NetApp Cloud Volumes for Google Cloud Platform" soll die Kunden dabei unterstützen,

• datengetriebene Entscheidungen schneller zu treffen, indem sie die Analytics-Anwendungen in die Cloud verlagern,

• High-Speed-Tests und -Iterationen über Anwendungs- und Workload-Grenzen hinweg zu fahren (einschließlich Wiederherstellung-Services),

• die „Time to value“ spürbar zu verringern; dank Automatisierung lassen sich angeblich Hunderte von Entwicklungs- und Test-Umgebungen innerhalb weniger Minuten clonen.

Mit den neuen Produkten hofft NetApp, auch den Verkauf konventioneller Angebote ankurbeln zu können. Schließlich hätten etwa 60 Prozent der eigenen Kunden immer noch keine modernen Flash-Speicher. „Wir bieten den Anwendern Sicherheit“, erläutert Anthony Lye, Senior Vice President und General Manager der Geschäftseinheit Cloud Data Services bei NetApp: „Sie wissen, dass sie alles, was sie on-premises kaufen, später in der Cloud weiternutzen können.“ NetApp verfahre nach dem Byol-Prinzip: Bring your own licence!

Daten zähmen leicht gemacht

Wie auf den meisten Herstellerkonferenzen spielten auch auf der Insight Europe Kundenvorträge eine große Rolle. Star der Veranstaltung war dieses Mal der Trickfilm-ProduzentDreamworks, der ausgiebig Gelegenheit hatte, den dritten Teil von „Drachen zähmen leicht gemacht“ zu promoten.

So zauberhaft der Film auch sein mag – so richtig würdigen kann man ihn vermutlich nur, wenn man die Fakten kennt, die Kate Swanborg, Senior Vice President of Technology Communications and Strategic Alliances bei Dreamworks, in ihrer Präsentation verriet: Jeder Dreamworks-Film dauert etwa 90 Minuten. Die Bilder laufen mit 24 Frames pro Sekunde ab, wobei jedes Detail – von der Landschaft im Hintergrund bis zum einzelnen Haar des Hauptdarstellers – eigens entworfen wird. Das summiert sich auf insgesamt 500 Millionen Dateien pro Film.

„Man kennt uns für unsere Filme, aber was wir eigentlich herstellen, sind Daten“, so Swanborg: „Und wenn die Daten das Produkt sind, dann ist der File-Server die Fabrik.“ Gemeinsam mit NetApp entwickelt Dreamworks derzeit eine Data Fabric für Echtzeit-Umgebungen, in dem sich die Daten sowohl teilen als auch persistent speichern lassen.

Die nächste Stufe der Künstlichen Intelligenz

Ein anderer Kunde und gleichzeitig Partner von NetApp ist Cambridge Consultants. Die Beratungs- und Engineering-Firma hat ein Forschungsprojekt unternommen, das vor allem im Zusammenhang mit autonomen Fahrzeugen wichtig sein dürfte. Sie nennt es „Deep Ray“.

Viele werden sich noch an den heftig diskutierten Unfall erinnern, bei dem ein selbstfahrendes Auto ein großes weißes Fahrzeug nicht richtig erkannt hat. Fehlwahrnehmungen, also quasi beschädigte oder unvollständige Daten, können auch durch Regen oder andere Licht brechende Phänomene auftreten. Hier soll Deep Ray Abhilfe schaffen, indem es die mangelhafte Datenqualität deutlich verbessert.

Es handelt sich um eine selbstlernende (Deep-Learning-) Anwendung, die mit Hilfe von Kunstgemälden oder unscharfen Fotografien so trainiert wird, dass sie aus zerstörten oder fehlehaften Aufnahmen das Original zu etwa 70 Prozent wiederherstellen kann – und das quasi in Echtzeit. „Hundert Prozent wäre vielleicht möglich, aber das ginge zu Lasten der Performance“, sagt Tim Ensor, Commercial Director Artificial Intelligence bei Cambridge Consultants. Das Prinzip hinter diesem Projekt nenne sich Generative Adversarial Network oder kurz: GAN.

„Heute sind die meisten AI-Anwendungen entweder nicht besonders intelligent oder aber unerheblich“, so der KI-Experte weiter. Deep Ray, dass in Indien bereits getestet wird, soll hingegen beides sein. Und was für Bilder gilt, lässt sich grundsätzlich auch auf Ton- und Streaming-Aufnahmen übertragen. (hal)