Generative AI fordert Rechenzentren

So wird Ihr Datacenter GenAI-ready

28.07.2023
Von 
Bob Violino arbeitet als freier IT-Journalist für InfoWorld und Network World in den USA.
Generative AI erfreut sich enormer Nachfrage – Tendenz rasant steigend. Das setzt allerdings auch die IT-Infrastruktur im Rechenzentrum unter Druck.
Der Generative-AI-Hype wirft auch neue Herausforderungen im Rechenzentrum auf.
Der Generative-AI-Hype wirft auch neue Herausforderungen im Rechenzentrum auf.
Foto: Peopleimages.com - Yuri A - shutterstock.com

Generative AI (GenAI), respektive generative künstliche Intelligenz (KI) hat einen beispiellosen Hype ausgelöst. Wie Bloomberg Intelligence prognostiziert, soll der GenAI-Markt in der nächsten Dekade jährlich um satte 42 Prozent zulegen - von 40 Milliarden (2022) auf 1,3 Billionen Dollar.

Die Begeisterung sorgt unter anderem dafür, dass unaufhörlich neue Use Cases für die Technologie exploriert werden: "Unternehmen zerbrechen sich den Kopf darüber, wieviel Geld sie in generative KI-Lösungen stecken sollen, welche Produkte das Investment wert sind, wann der richtige Zeitpunkt ist, um einzusteigen, und wie sie die damit einhergehenden Risiken abfedern können", bestätigt Gartner-Analystin Frances Karamouzis.

Auch IT-Teams kann Generative AI auf vielfältige Weise unterstützen. Zum Beispiel, wenn es darum geht,

  • Software und Skripte zu coden,

  • Problemlösungen anzubieten,

  • Prozesse zu automatisieren,

  • Schulungen und Onboarding-Prozesse abzubilden,

  • Dokumentationen und Wissensmanagementsysteme zu erstellen oder

  • Projekte zu managen und zu planen.

GenAI kann darüber hinaus auch andere Unternehmensbereiche verändern, etwa Kundendienst oder Datenanalyse. Dabei stellt sich allerdings eine grundlegende Frage: Ist Ihre Infrastruktur in der Lage, die wachsenden Workloads zu bewältigen, die generative künstliche Intelligenz aufwirft?

Generative KI treibt Datacenter-Anforderungen

Um zu gewährleisten, dass Sie diese Frage mit 'Ja' beantworten können, sollten IT-Entscheider und -Führungskräfte ihre Infrastrukturen und Teams jetzt auf die kommenden Veränderungen vorbereiten. Laut Raul Martynek, CEO des Rechenzentrumsbetreibers DataBank, erfordern Gen-AI-Anwendungen erhebliche Rechenleistung in zwei Phasen:

  1. Beim Training der Large Language Models (LLMs, auch große Sprachmodelle) die die Grundlage für generativer KI-Systeme bilden.

  2. Für den anschließenden Betrieb der Anwendungen mit den trainierten LLMs.

"Große Sprachmodelle zu trainieren, erfordert Dense Computing. Dabei werden Milliarden von Sprach- oder Bildbeispielen in ein System von neuronalen Netzen eingespeist und immer wieder verfeinert - solange, bis das System sie so gut 'erkennt', wie es ein Mensch tun würde", erklärt der Manager und fügt hinzu, dass neuronale Netze wiederum HPC-Cluster mit GPUs erforderten, die kontinuierlich über Monate oder gar Jahre hinweg laufen. "Das lässt sich wesentlich effizienter auf dedizierter Infrastruktur umsetzen, die sich möglichst nah an den proprietären Trainingsdatensätzen befindet."

Die zweite Phase nennt Martynek den "Inferenzprozess" und meint damit die Nutzungsphase der tatsächlichen Anwendungen, um Anfragen zu stellen und Ergebnisse in Datenform zu liefern. Er spezifiziert, was seiner Meinung nach an dieser Stelle nötig ist: "In dieser Betriebsphase ist eine geografisch optimal verteilte Infrastruktur erforderlich, die sich schnell skalieren lässt und möglichst verzögerungsfreien Zugriff auf die Anwendungen ermöglicht. Das erwarten auch die Benutzer."

Martynek sieht darin eine grundlegende Umwälzung auf IT-Entscheider und ihre Teams zukommen: "Im Gegensatz zum zentralisierten Public-Cloud-Modell, das aktuell die meisten Applikationen stützt, wären künftig Rechenzentren an vielen verschiedenen Standorten erforderlich. Der Bedarf an Rechenleistung wird auch dann noch hoch sein, kann aber besser verteilt werden."

Generative AI trifft nachhaltiges Rechenzentrum

Davon abgesehen, sollten Netzwerk- und IT-Entscheider auch darüber Bescheid wissen, wie sich Generative AI auf die Serverdichte auswirkt - und welche Konsequenzen das für den Kühl- und Energiebedarf beziehungsweise Nachhaltigkeitsinitiativen im Allgemeinen hat.

"Dabei geht es auch darum, wie oft und wie stark die Server unter Spitzenlast laufen", weiß Francis Sideco, Chefanalyst bei Tirias Research. Er ergänzt: "Unternehmen wie Nvidia, AMD und Intel versuchen mit jeder neuen Chip-Generation die Performance zu steigern und gleichzeitig Stromverbrauch und Wärmeentwicklung unter Kontrolle zu halten. Dennoch steigen die Energiebudgets weiter an. Bei der rasanten Zunahme der Workloads werden wir, insbesondere mit Blick auf GenAI, irgendwann an Grenzen stoßen."

Nach Ansicht von Brian Lewis, Managing Director bei der Unternehmensberatung KPMG, muss die Serverdichte deswegen jedoch nicht notwendigerweise steigen: "Technische Innovationen wie Nicht-Silizium-Chips, GPUs, Quantencomputer und eine hardware-bewusste, modellbasierte Softwareentwicklung werden ermöglichen, mehr aus der vorhandenen Hardware herauszuholen. Die Branche experimentiert bereits mit innovativen Flüssigkühlungstechniken und alternativen Standorten, etwa nach dem Vorbild von Microsofts Project Natick, einem Unterwasserrechenzentrum."

Herkömmliche Luftkühlungstechniken und Klimaanlagen reichten nach Meinung des Analysten hingegen nicht aus, um den Kühlungsbedarf von Hochleistungs-Hardware zu decken. Alternative Kühltechnologien wie Liquid Cooling gewönnen entsprechend an Bedeutung.

Databank-CEO Martynek sieht in dieser Entwicklung vor allem Vorteile: "Die Nachfrage nach mehr Rechenleistung, die sich aus der Einführung generativer KI ergibt, wird zweifellos Innovationen im Bereich der Energieffizienz und der Kühlungstechnologien vorantreiben. Schließlich werden künftige GPU-Generationen nicht unbedingt weniger Strom brauchen."

Was IT-Teams jetzt tun sollten

IT-Entscheider und ihre Teams sollten ihre Netzwerke und Rechenzentren asap auf die neuen Anforderungen vorbereiten. Dabei empfiehlt sich ein schrittweises Vorgehen, wie Tirias-Analyst Sieco nahelegt: "Diese Veränderungen vollziehen sich zu schnell, als dass irgendjemand vollständig darauf vorbereitet sein könnte. Die erforderlichen Änderungen betreffen nicht nur die Teams, die für Netzwerke und Datacenter zuständig sind, sondern das gesamte Ökosystem."

Dazu gehörten zum Beispiel auch die Chiphersteller, die ebenfalls die steigenden Workloads und den wachsenden Energiebedarf begegnen müssten, so Sideco: "Die Zusammenarbeit zwischen allen beteiligten Unternehmen wird in Zukunft essenziell sein, um mit der Nachfrage Schritt halten zu können."

Andere Experten sind deutlich zuversichtlicher, was die Vorbereitungen angeht: "In der IT sind wir immer bereit für die Disruption", konstatiert etwa Lewis und fügt hinzu: "Die eigentliche Frage ist: Wird das Unternehmen in die notwendigen Veränderungen investieren? Kosteneinsparungen stehen beim Outsourcing von Rechenzentren nach wie vor an erster Stelle." (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.