Künstliche Intelligenz im Data Center

Rechenzentren auf dem Mond

Kommentar  von Ravin Mehta
In naher Zukunft fährt Künstliche Intelligenz (KI) unsere Autos, schreibt unseren Code und optimiert unser Geschäft. Auch der Betrieb von Rechenzentren darf sich diesem Trend nicht entziehen. Und wo werden sie dann stehen – warum nicht auf dem Mond?

Das Rechenzentrum ist das Rückgrat der digitalen Revolution - auch wenn es in der öffentlichen Wahrnehmung bisher stets im Hintergrund bleibt. Doch ohne Server-Virtualisierung, billigen Speicher und immer leistungsfähigere Hardware, wären die Digitalisierung und ihre neuen Geschäftsmodelle gar nicht möglich. Jetzt ist es an der Zeit, Automatisierungskonzepte, wie sie für Industrie 4.0 und das Internet of Things (IoT) gibt, in Verbindung mit Künstlicher Intelligenz auch für die Rechenzentren anzugehen. Insbesondere in der Analyse enormer Datenmengen, die aus immer komplexer werdenden Systeme und Strukturen stammen, spielt die künstliche Intelligenz ihre Stärken aus.

Dank Machine Learning und KI sind bald komplett autonome, sich selbst heilende Rechenzentren denkbar.
Foto: everything possible - shutterstock.com

BIM und Prozessautomatisierung

Der Trend zur Robotic Process Automation (RPA) muss jetzt auch das Data Center erreichen. Sie sorgt dafür, dass traditionelle Prozesse mit KI-Algorithmen neu gedacht und optimiert werden, so dass menschliche Eingriffe nur noch nötig sind, um in Ausnahmefällen zu entscheiden. Basis dafür sind Machine Learning und Deep Learning. Ganz ähnlich, wie derzeit über eine Automatisierung der Fabrik und den Digitalen Zwilling nachgedacht wird, gilt es jetzt auch im Data Center zu agieren.

Die Produktion in der Industrie 4.0 basiert darauf, dass jedes Element in ihr digital sichtbar und damit von einer zentralen Plattform aus in einem Gesamtprozess steuerbar ist. Auch die "Digitale Fabrik" fließt ein, also die digital geplante Anordnung von Maschinen und Anlagen im Gebäude. Hier gibt es eine Parallele, denn für Rechenzentren wird derzeit intensiv über BIM diskutiert. Building Information Modeling will Entwürfe von Gebäuden und die digitale RZ-Konzeption als virtuelle und vollständig begehbare 3D-Modelle darstellen. Die Diskussion sollte jedoch noch einen Schritt weiter gehen und die Verknüpfung von physischer und digitaler Welt vorantreiben.

Das selbstheilende Rechenzentrum

Auch jeder Server, jede Festplatte, jede Storage Unit und jedes Rack muss zum Ding im IoT werden, die Ausstattung mit günstigen Sensoren sicherstellen, dass sämtliche Temperaturveränderungen und Vibrationen aufgenommen werden. Erst wenn diese Daten zusammen mit Log-Daten, Ergebnissen von in Systemen platzierten Datensensoren und Erfahrungswerten in selbstlernende, tiefe neuronale Netze eingefüttert werden, können KI-Analysen das Wissen liefern, um irgendwann auf ein Verfügbarkeitslevel von 100 Prozent bei deutlich geringeren Kosten zu kommen. Zugleich lässt sich so, nach dem Vorbild der "Predictive Maintenance", Wartung flexibler steuern und Ausfälle im Vorfeld prognostizieren.

Die extrem strukturierte RZ-Umgebung ist zudem ein ideales Szenario für Robotik. So könnten künftig autonome Roboter 24/7 Hardware austauschen, bevor sie ausfällt und das Layout je nach verändertem Bedarf flexibel umstellen. Mit Hilfe intelligenter Cybersecurity-Analysen auf Netzwerk-, Nutzungs- und zahlreichen weiteren System- und Logdaten, insbesondere in deren Kombination, wird es möglich sein, Bedrohungen und Malfunctions schneller zu erkennen und automatisiert zu beantworten.

Dass mit KI eine ganz andere Ressourceneffizienz erreicht werden kann, zeigt ebenfalls ein Google-Beispiel: Mit DeepMind ließen sich in Teilen der eigenen Daten Center 40 Prozent der Kühlungsenergie sparen, insgesamt war so eine Stromeinsparung von 15 Prozent möglich.

Das Potential von KI ist immens

Bisher ist die Skepsis sowohl gegenüber den Möglichkeiten als auch den Risiken von KI (auch AI, Artificial Intelligence) groß. Doch die Autoindustrie zeigt heute schon, was möglich ist. Selbstfahrende Autos sind dank Sensorik, Radar, Lidar, Bilderkennungstechnologie, Grafikchips (GPU) und Computing-Power bereits in der Realität angekommen: Das war vor Kurzem noch reine Fiktion.

Auch in der Automobilproduktion werden Aufgaben automatisiert, die zuvor ausschließlich von Menschen erledigt werden konnten. So schauen bei einigen Autoherstellern nicht mehr spezialisierte Mitarbeiter, ob der Lack perfekt aufgetragen wurde, sondern die Technik: Dafür wird ein neuronales Netz mit Bildern gefüttert, wie der perfekte Lack aussieht und wie nicht. Roboter trainieren die Zusammenarbeit mit Menschen, lernen durch Zuschauen, welchen nächsten Handgriff sie leisten sollen, lernen im Verbund mit anderen Robotern.

Experimente von Google zeigen, dass dabei eigenständige Erkenntnisse entstehen: Bei vierzehn Robotern, die eigenständig lernten, unterschiedlich geformte Dinge aus einer Kiste zu greifen, schob ein Roboterarm einen Gegenstand zur Seite, um besser an einen anderen heranzukommen: Diese aus menschlicher Sicht natürliche Aktion hatte ihm niemand vorher einprogrammiert.

Experten sind sich sicher: Auch bisherige Produktionskonzepte nach Methoden wie Just in Time, Just in Sequence werden auf der Strecke bleiben, stattdessen evolutionäre Algorithmen ganz neue Anordnungen der Fertigungskette ersinnen. Ähnliches ist auch für die Anordnung von Assets im "Autonomous Data Center" zu erwarten.

Künstliche Intelligenz und Machine Learning in Deutschland 2018
Studien-Methodik
Künstliche Intelligenz und Machine Learning
Attribute von KI-Software
Unternehmen fokussieren auf Effizienz. Innovation nicht unter den Top Antriebsfaktoren
Die fünf größten Hürden für KI
Ist künstliche Intelligenz in Deutschland angekommen?
Vielfältige KI-Technologien im Einsatz – Wissensextraktion und Spracherkennung am häufigsten sichtbar
Intelligente Assistenten klar im Fokus der Unternehmen
Cloudbasierte KI-Services und Open Source Frameworks dominieren
Fehlende Spezialisten bremsen KI-Projekte ab und aus
Hoher KI-Fachkräftebedarf in Business und IT
Hoher Informationsbedarf – Unternehmen nutzen breite Informationsbasis
Ambitionierte Umsetzungspläne in allen Branchen
Highlights aus der Studie

Das RZ wandert zum Edge

Eine der gravierendsten Folgen von Industrie 4.0 und dem Internet der Dinge ist die Dezentralisierung. Dieser Effekt wird sich auch zunehmend auf Data Center auswirken. Das Edge Computing, das große Mengen an Sensordaten dort vor Ort aufnimmt und auswertet, wo Echtzeitanforderungen die Übertragung in die Cloud nicht zulassen, führt zu kleineren Recheneinheiten, unter anderem in Maschinennähe.

Auch im autonomen Auto werden beispielsweise immer die vitalen Funktionen innerhalb des Fahrzeugs verbleiben, unabhängig von einer Verbindung zur Cloud. Es könnte also zunehmend einen Trend zu Mini-Rechenzentren geben. Schon jetzt werden Lösungen wie Data-Center-Container diskutiert, die mit autonomen Konzepten sehr viel leichter zu nutzen wären.

KI ist aber nicht nur Chance, sondern stellt Data Center vor echte Herausforderungen. "Nach zehn Jahren der IT-Infrastruktur-Konsolidierung wird es demnächst wieder etwas bunter in den Rechenzentren der Unternehmen und ihrer Service- und Cloud-Provider. Vielfalt, Komplexität und Hardware-Expertise kennzeichnen die Landschaften der nächsten fünf bis zehn Jahre", konstatiert das Marktforschungsunternehmen Crisp Research. Gerade Machine Learning sei mit den altbewährten X86-Standard-Infrastrukturen großflächig und performant nicht zu skalieren, ein Umdenken bei den Digitalisierungsverantwortlichen notwendig.

Parallel zu diesen Entwicklungen verändert sich auch die Hardware, die in den Rechenzentren zum Einsatz kommen wird. Flash-Speicher und GPUs nehmen zu. Innerhalb der nächsten zehn Jahre wird zudem das Quantum Computing die Bühne erobern und vielen Anwendungen, aber auch der Künstlichen Intelligenz, einen weiteren Schub geben. Konzerne wie IBM, Intel oder Microsoft arbeiten auf Hochdruck daran, von D-Wave steht bereits ein erster kommerzieller Quantencomputer zur Verfügung.

Noch gibt es dafür andere Platzanforderungen, die an Mainframes erinnern, denn ein Quantenprozessor muss bei Temperaturen wie im Weltall gekühlt werden. Angesichts all dieser Entwicklungen ist deshalb Ingenieurskunst gefragt, die das DevOps-Mindset verinnerlicht und auf Automatisierung und Elastizität der Systeme setzt.

Wie Unternehmen sich neuen Technologien stellen

Eines hat sich für Unternehmen in den letzten Jahren erheblich verändert: Neue Technologien, die für Disruption sorgen, entstehen schneller als früher. Das haben die Entwicklung von Cloud und Big Data gezeigt. Während viele Unternehmen jahrelang über die Sicherheit von Cloud gegrübelt haben, preschten Wettbewerber vor und schufen Fakten.

Beide Trends sind die Vorläufer von AI, die wir jetzt sehen. Über Künstliche Intelligenz wird schon seit den fünfziger Jahren spekuliert, ressourcentechnisch lässt sie sich jedoch erst seit kurzer Zeit umsetzen. Der Forscher Prof. Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) und Experte für Deep Learning stellt dazu fest: "Ich sehe derzeit eigentlich keine prinzipiellen Grenzen bei KI-Technologie.

Was hier in den letzten fünf Jahren passiert ist, überwältigt mich selbst. In den zwanzig Jahren meiner Tätigkeit in diesem Bereich hätte ich nie gedacht, dass ich diese Fortschritte in meiner Lebensspanne erlebe". Das Thema KI wird also nicht verschwinden, sondern jedes Business betreffen, vom Mittelständler bis zum Großkonzern.

Für viele Unternehmen liegt die Herausforderung in der Frage, wie sich neue technologische Möglichkeiten gewinnbringend nutzen lassen und helfen, ihr Geschäft digital umzukrempeln. Untrennbar damit verbunden ist die IT-technische Umsetzung, in der das Data Center zum Gehirn, zur Schaltzentrale wird. CEOs und CIOs müssen heute als Visionäre agieren, den Impact neuer Technologien vorausdenken - das klappt nur im Nachdenken und Diskutieren mit denen, die sich mit den Möglichkeiten dieser Technologien im Detail auskennen. (mb)