On Prem oder in der Cloud

Wo generative KI laufen sollte

16.08.2023
Von 

David Linthicum ist ein US-amerikanischer Technologieexperte und Buchautor. Zu seinen Schwerpunktthemen gehören unter anderem Cloud Computing, SOA, Enterprise Application Integration und Enterprise Architecture.

KI gehört in die Cloud. Das klingt auf den ersten Blick einleuchtend, doch die Realität ist deutlich komplexer und eine falsche Entscheidung kann teuer werden.
Viele Unternehmen stehen vor der Frage, wo sie generative KI betrieben sollten.
Viele Unternehmen stehen vor der Frage, wo sie generative KI betrieben sollten.
Foto: everything possible - shutterstock.com

Generative AI in der Cloud oder On-Premises betreiben? Vor dieser Frage stehen derzeit viele Unternehmen.

Die Antwort scheint auf den ersten Blick auf der Hand zu liegen: Die schnelle Akzeptanz generativer KI treibt derzeit das Cloud-Wachstum und die ersten Gehversuche in Sachen KI finden in der Regel in der Cloud statt. Gleichzeitig zeigt sich aber, dass sich viele Unternehmen noch nicht abschließend für die Cloud oder für On-Premises entschieden haben.

Pro KI in der Cloud

Für KI in der Cloud scheinen Skalierbarkeit, schnelle Implementierung und zumindest am Anfang niedrige Kosten zu sprechen. So entfällt etwa das Management eigener Server. Und die Geschwindigkeit, mit der auf technische Weiterentwicklungen reagiert wird, ist in der Cloud unübertroffen. Zumal die großen Hyperscaler generative KI bereits gut beherrschen.

Die Gefahren der Cloud

Auf der anderen Seite ist KI in der Public Cloud mit gewissen Risiken verbunden - etwa IP-Lecks oder die Gefahr, dass die KI-Schlussfolgerungen aus den eigenen Daten öffentlich bekannt werden.

Datensilos und On Premises

Zudem haben Unternehmen immer noch viele Daten in traditionellen Rechenzentren oder auf Edge-Computing-Plattformen und nicht in der Cloud. Dies kann zu Problemen führen, wenn die Daten nicht einfach in die Cloud verschoben werden können, da Datensilos auch heute noch in den meisten Unternehmen existieren. KI-Systeme benötigen aber Daten, um von Nutzen zu sein. Daher kann es sinnvoll sein, die KI-Systeme möglichst nah an den Daten zu hosten.

Zwar sollten solche Datensilos eigentlich nicht mehr existieren, doch angesichts der damit verbundenen Kosten gingen viele Unternehmen dieses Problem bislang nicht an. Da generative KI für die meisten Unternehmen mittlerweile Priorität hat, müssen sie wohl zwangsläufig mit einer suboptimalen Infrastruktur arbeiten.

Der Anwendungsfall zählt

Werden die generativen KI-Systeme jedoch tatsächlich mit den Trainingsdaten zusammengeführt, dann könnten die Kosten für On-Premises-Systeme nur halb so hoch sein wie die für Public-Cloud-Plattformen. Eine Tendenz, die schon bei anderen Systemen zu beobachten war, die aus der Cloud zurück auf On-Premises-Systeme geholt wurden.

Last but not least sollte auch bei der KI berücksichtigt werden, welche Probleme damit gelöst werden sollen. Soll die KI beispielsweise Lieferketten mit intelligenter Verarbeitung automatisieren, wiederholbare manuelle Arbeiten übernehmen oder Marketing-Intelligenz bereitstellen?

Keine vorschnellen Entscheidungen

Ja nach Anwendungsfall können Public-Cloud- oder On-Premises-Lösungen teurer sein. Deshalb sollten in Sachen generativer KI die Fehler der Vergangenheit vermieden werden, als sich viele Unternehmen vorschnell für die eine oder andere Lösung entschieden haben.

Wird dies bei den IT-Entscheidungen berücksichtigt, dann könnten sich in ein bis zwei Jahren Diskussionen darüber erübrigen, dass der KI-Einsatz doppelt so viel kostet, wie erwartet.