Künstliche Intelligenz in der Praxis

KI ist Realität – keine Science-Fiction

16.08.2019
Anzeige  Um KI-Projekte erfolgreich umzusetzen, sind neben tragfähigen Use Cases und einem soliden Know-how weitere Faktoren wichtig. Dazu zählen ein zentrales Datenmanagement und integrierte KI-Plattformen, die sich mit geringem Aufwand aufsetzen und betreiben lassen.

Jahrzehntelang waren KI-Systeme und intelligente Roboter nur in Science-Fiction-Filmen zu finden, etwa in "Odyssee im Weltraum" oder "Star Wars". Das hat sich geändert. Künstliche Intelligenz ist mittlerweile in unserem Alltag angelangt: im Auto, in der Fabrik und in Lösungen, mit denen Unternehmen die Wünsche von Kunden besser erfassen können.

Einsatzmöglichkeiten von künstlicher Intelligenz in ausgewählten Branchen: Auch Bereiche wie Forschung, Gesundheitswesen und Automatisierung von Prozessen in Unternehmen zählen zu den Use Cases von KI.
Einsatzmöglichkeiten von künstlicher Intelligenz in ausgewählten Branchen: Auch Bereiche wie Forschung, Gesundheitswesen und Automatisierung von Prozessen in Unternehmen zählen zu den Use Cases von KI.

Unternehmen aus dem Finanzsektor setzen beispielsweise KI-Lösungen ein, um Betrugsfällen auf die Spur zu kommen. In der Kundenbetreuung und dem technischen Support kommen virtuelle Assistenzsysteme und Chat-Bots zum Einsatz. Sie sind in der Lage, einen beträchtlichen Teil der Anfragen von Kunden zu beantworten.

Deutsche Firmen setzen auf KI

Wie intensiv sich Unternehmen in Deutschland mit dem Thema KI beschäftigen, zeigt eine aktuelle Studie von IDG Research Services. Demnach haben bereits 38 Prozent der Firmen Projekte im Bereich künstliche Intelligenz umgesetzt. Weitere 82 Prozent wollen im laufenden Jahr 2019 zumindest ein Vorhaben umsetzen.

Vom Einsatz künstlicher Intelligenz und verwandter Technologien wie Deep Learning und Machine Learning (ML) versprechen sich deutsche Firmen vor allem eine höhere Effizienz (48 Prozent) und geringere operative Kosten (46 Prozent). Zudem soll KI dabei helfen, die Qualität von Produkten zu erhöhen und das Kundenerlebnis zu optimieren.

Welche Voraussetzungen erfüllt sein müssen

Der Erfolg von KI-Projekten hängt von mehreren Faktoren ab. Wichtig ist nach Erfahrungswerten von NetApp, einen tragfähigen Anwendungsfall (Use Case) zu entwickeln. Ein möglicher "Stolperstein" ist, dass Fachabteilungen manchmal überzogene Erwartungen bezüglich des Nutzens von KI haben. Sie können schwer abschätzen, wie viel Aufwand notwendig ist, um ein KI-Modell zu erarbeiten und die benötigten Daten in der erforderlichen Qualität bereitzustellen.

Ein zweiter Punkt ist, dass Unternehmen häufig das erforderliche Wissen fehlt. Kein Wunder, denn KI-Fachleute sind gesucht. Hier bietet es sich an, auf Spezialisten von Systemlieferanten wie NetApp und von deren Partnern zurückzugreifen. Sie leisten bei KI-Projekten Anschubhilfe - von der Planung und Implementierung einer KI-Infrastruktur bis hin zu deren Betrieb.

Zentrale Rolle des Datenmanagements

Zu den beiden größten Aufgaben im Rahmen von KI-Initiativen zählen

  • ein effizientes Datenmanagement zu implementieren, das den gesamten Weg der Informationen abdeckt - vom Entstehungsort bis zu ihrer Verarbeitung in Unternehmensrechenzentren oder Cloud-Datacentern;

  • eine flexible und skalierbare Plattform aufzubauen für die Entwicklung von KI- und ML-Applikationen.

Das Datenmanagement ist wichtig, weil KI- und ML-Modelle mit einer großen Zahl von Informationen "gefüttert" und trainiert werden. Dabei handelt es sich um Daten aus unterschiedlichen Quellen und in diversen Formaten. Zudem müssen Nutzer die Kontrolle über diese Daten haben. Das verlangen die EU-DSGVO (Datenschutz-Grundverordnung) und Compliance-Vorgaben.

Datenmanagement mit einer Data Fabric

Die Architektur der Data Fabric von NetApp
Die Architektur der Data Fabric von NetApp
Foto: NetApp

Als Grundlage einer Datenmanagement-Plattform bietet sich eine Data Fabric an. Sie verknüpft Endpunkte am Rand des Unternehmensnetzes ("Edge") mit dem Firmenrechenzentrum und Cloud-Ressourcen. So lassen sich die Transparenz und Sicherheit der Daten gewährleisten.

Eine Data Fabric ermöglicht es, Unternehmensdaten unabhängig von der IT-Infrastruktur zu verwalten, etwa in Storage-Systemen im hauseigenen Rechenzentrum oder in Cloud-Ressourcen. Die Grundlage dafür bilden ein einheitliches Datenformat sowie ein einheitliches Übermittlungsverfahren für Daten auf Grundlage der SnapMirror-Technologie von NetApp.

Das bedeutet, dass Unternehmen Informationsbestände dort speichern und bereitstellen können, wo es am meisten Sinn macht. Unternehmen haben dabei jederzeit die volle Kontrolle über ihre Daten. Außerdem ist es nicht erforderlich, die Daten zu konvertieren, wenn sie beispielsweise vom Firmen-Datacenter in eine Cloud verlagert werden.

Nutzern eröffnet eine Data Fabric die Möglichkeit, eine datenzentrierte Infrastruktur aufzubauen, die sich flexibel an veränderte Anforderungen anpassen lässt. Dies ist insbesondere vor dem Hintergrund der Digitalisierung ein wichtiger Vorteil.

Hochleistungs-Server mit Grafikprozessoren

Eine Entwicklungsplattform für KI-Anwendungen benötigt vor allem eine hohe Rechenleistung. Hier kommen Server zum Einsatz, in die Hochleistungsgrafikprozessoren integriert sind. NVIDIA hat dafür beispielsweise die Supercomputer der Reihe DGX entwickelt.

Ein DGX-2-System ist mit GPUs (Graphics Processing Units) auf Basis der Tesla-V100-Architektur ausgestattet. Es stellt im Vollausbau mit 16 GPUs eine Rechenleistung von zwei PetaFLOPS (Fließkomma-Operationen pro Sekunde) zur Verfügung. Der Kostenpunkt: rund 400.000 Euro. Um eine vergleichbare Rechenleistung mit konventionellen x86-Servern zu erzielen, sind ungefähr 300 Systeme erforderlich. Dies würde mit rund 2,4 Millionen Euro zu Buche schlagen.

Integrierte Lösung statt Lösungs-Puzzle

Bedeutet dies, dass Unternehmen eine KI-Plattform aus Lösungen mehrerer Anbieter zusammenstellen müssen? Das wäre vor allem für mittelständische Unternehmen nicht akzeptabel, denen es häufig an IT-Fachkräften fehlt. Zudem sollen sich KI-Spezialisten primär darum kümmern, KI- und ML-Modelle zu entwickeln.

Einfacher Einstieg: Mit NetApp ONTAP AI steht Unternehmen eine komplette Plattform für KI-Applikationen zur Verfügung. NetApp steuert das Datenmanagement bei, NVIDIA die Rechenleistung.
Einfacher Einstieg: Mit NetApp ONTAP AI steht Unternehmen eine komplette Plattform für KI-Applikationen zur Verfügung. NetApp steuert das Datenmanagement bei, NVIDIA die Rechenleistung.
Foto: NetApp

Die Lösung ist eine schlüsselfertige KI-Architektur, beispielsweise NetApp ONTAP AI. Sie kombiniert All-Flash-Storage von NetApp mit DGX-Servern von NVIDIA und Netzwerk-Switches von Cisco. Mit solch einer Infrastruktur können Unternehmen rasch mit KI-Projekten starten - ohne aufwändige Konfigurations- und Abstimmungsarbeiten, ohne personelle und finanzielle Ressourcen zu verschwenden.

Ein weiterer Vorteil ist die hohe Skalierbarkeit solcher Lösungen. In der Regel starten viele Unternehmen mit kleineren KI- und Machine-Learning-Projekten. Dafür reicht eine 1:1-Konfiguration von Storage- und Server-Komponenten aus. Steigen die Anforderungen an die Rechenleistung, lassen sich weitere Storage-Einheiten und Server hinzufügen - sogar im laufenden Betrieb.

Auch der Finanzchef dürfte zufrieden sein. Denn die Betriebskosten eines AFF A800-Storage-Systems in Verbindung mit einer Data Fabric liegen um mehr als 50 Prozent niedriger als bei Einsatz von DAS-Speicherlösungen (Direct-Attached Storage).

KI-Anwendungen automatisiert bereitstellen mit konvergenter Infrastruktur

Einen Schritt weiter als ONTAP AI gehen konvergente Infrastruktursysteme (Converged Infrastructure) wie NetApp FlexPod Datacenter for AI. Es handelt sich dabei um Rechenzentren in einem kompakten Format - mit A800-Storage-Systemen von NetApp, einer Data Fabric und Servern der UCS-Reihe von Cisco, in denen NVIDIA-GPUs installiert sind.

Neue Technologien für Geschäftsanwendungen und KI: FlexPod AI ist eine konvergente Infrastruktur mit Servern, Storage-Systemen und Netzwerkkomponenten. Auf ihr lassen sich Business- und Analytics-Applikationen betreiben, aber auch KI- und Machine-Learning-Anwendungen.
Neue Technologien für Geschäftsanwendungen und KI: FlexPod AI ist eine konvergente Infrastruktur mit Servern, Storage-Systemen und Netzwerkkomponenten. Auf ihr lassen sich Business- und Analytics-Applikationen betreiben, aber auch KI- und Machine-Learning-Anwendungen.
Foto: NetApp

Ein solches System bietet ähnliche Vorteile wie ONTAP AI: eine einfache Implementierung, geringere Betriebskosten und ein zentrales Management aller Komponenten. Zudem unterstützt ein FlexPod weitere Workloads, beispielsweise Geschäftsanwendungen von SAP und Oracle.

Zu den größten Vorteilen zählt, dass sich KI- und Machine-Learning-Anwendungen automatisieren bereitstellen lassen. Das ist für Unternehmen interessant, die eine große Zahl solcher Applikationen entwickeln und ausrollen. Solche Prozesse laufen dank FlexPod AI schneller und einfacher ab.

KI ist erschwinglich geworden

Es zeichnet sich ab, dass künstliche Intelligenz und Machine Learning in allen Branchen Fuß fassen werden. Für mittelständische Unternehmen bedeutet das, dass sie nun experimentieren sollten, wollen sie nicht den Anschluss verlieren. Die gute Nachricht ist, dass KI-Plattformen wie NetApp ONTAP AI und konvergente Lösungen wie FlexPod AI den Einstieg in die Entwicklung von KI-Anwendungen erheblich erleichtern.