Experten diskutieren Applied AI

KI - irgendwie ready

20.06.2023
Von 
Florian Stocker ist Inhaber der Kommunikationsagentur "Medienstürmer".
ChatGPT hat die Debatte um KI beschleunigt. Doch ungeklärte Regulierungsfragen stehen einer breiten Anwendung noch im Weg – was nicht schlecht sein muss.
Obwohl die Technologie da ist und schon vielfach zum Einsatz kommt, gibt es auch in ethischen und rechtlichen Bereichen gerade in Europa noch viel zu diskutieren und zu klären.
Obwohl die Technologie da ist und schon vielfach zum Einsatz kommt, gibt es auch in ethischen und rechtlichen Bereichen gerade in Europa noch viel zu diskutieren und zu klären.
Foto: thinkhubstudio - shutterstock.com

Die Technologie ist da, ob wir wollen oder nicht. Unternehmen können aktuell nur schätzen, wie viele ihrer Mitarbeiterinnen und Mitarbeiter ChatGPT und Co. im Alltag produktiv einsetzen und genau die KI-Expertise aufbauen, die jahrelang von ihnen eingefordert wurde - Risiken wie Data Leakage inklusive. Die berüchtigte Schatten-IT ist also gerade dabei, zurückzukommen - wenn die Unternehmen nicht reagieren. Experten und Branchenvertreter, die an der COMPUTERWOCHE-Diskussionsrunde zum Thema "Applied AI" teilnahmen, fordern auch deswegen von Entscheidern, mehr Gas zu geben bei der Entwicklung eigener Szenarien und der Definition von Anwendungsbereichen.

"Gerade gibt es viele Fragen, wie man ChatGPT und Co. in Business-Prozesse übersetzen kann", stellt Michael Niederée von KPMG fest. "Wenn wir das nicht 'offiziell' tun, fangen die Mitarbeiter ganz von selbst an, ihren Job zu optimieren. Das ist eine Welle, die schon in Gang gesetzt wurde und sie ist gewaltig."

"Applied AI" ist also das Gebot der Stunde. "In den letzten sechs Monaten ist das Interesse rapide gestiegen", beobachtet Michael Burkhardt von Omdena. Gleichzeitig habe aber auch die Zahl der potenziellen Baustellen zugenommen, je erfolgreicher generative KI wurde. Die Diskussion zeigt, dass das mit dem "applied" aber gar nicht so einfach ist. Gespräche über konkrete Einsatzszenarien wechseln auch dadurch schnell wieder auf das Terrain der Ethik, weil eben noch einiges zu klären ist.

Andreas Gödde vom Analytics-Anbieter SAS sieht auf der Implementierungsseite zwar Handlungsbedarf, warnt aber auch vor unreflektierten Schnellschüssen. "Eine verantwortliche Implementierung von KI ist Pflicht. Es ist wichtig, einen ethischen und regulatorischen Rahmen zu setzen, von dem ausgehend ich unter anderem anhand von Risikoeinschätzungen ableite, für welche Anwendungsfälle eine KI geeignet ist und wie ein entsprechendes Monitoring beziehungsweise Risikomanagement umgesetzt wird. Im Zweifelsfall muss ich immer erklären können, warum eine automatisierte Entscheidung wie, warum und aufgrund welcher Daten getroffen wurde."

Warten auf Regulierung

Die Europäische Union könnte die erste Weltregion sein, in der dieser Rahmen gesetzt würde. Der nach 18-monatiger Debatte vorgelegte Entwurf einer europäischen KI-Verordnung hat ähnlichen Pioniercharakter wie die DSGVO. Im Kern soll das Risiko der jeweiligen Technologie künftig der Maßstab dafür sein, welchen Pflichten die Entwickler unterliegen. Die Hersteller sollen verpflichtet werden, dieses Risiko zu bewerten - die Stichhaltigkeit der Argumentation wird von einer unabhängigen Behörde geprüft. Auch die Auswahl der Datensätze soll geregelt werden, was insbesondere bei heiklen Themen relevant ist - zum Beispiel bei der Vergabe eines Kredits.

Die Diskussion zeigt aber auch, dass Regulierung nur funktioniert, wenn die Wissenschaft einbezogen wird und die technologischen Eigenschaften von KI berücksicht. Ein gutes Beispiel ist die Forderung, dass Sprachmodelle wie ChatGPT die Quellen ihrer Entscheidungsfindung offenlegen sollen. Die Prozesse einer generativen KI wie ChatGPT funktionieren aber nicht wirklich deterministisch, sondern bauen auf sich selbst und auf Wahrscheinlichkeiten auf. Ein neuronales Netz oder ein Sprachmodell kann aus diesem Grund auch nicht "plagiieren", weil das Ergebnis zwar auf bestehendem basiert, aber immer auch eine "Neuschöpfung" ist. Das gegenwärtige Urheberrecht ist also gar nicht dafür geeignet, KI angemessen zu erfassen.

Viele Fragen also, deren Beantwortung Zeit braucht - und brauchen darf, auch wenn viele Debatten gerade mit der These geführt werden, dass die EU "einmal wieder" abgehängt wird und im Vergleich zu anderen Kontinenten gerade wichtige Innovationsschritte verschläft.

Informationen zu den Partner-Paketen der Studie 'Applied AI 2023'

Läuft die Zeit wirklich davon?

Die Diskussion zeigt auch: Europa sollte sich vom Pauschalvorwurf des "Bedenkenträgertums" nicht treiben lassen, sondern das Prinzip "Gründlichkeit vor Schnelligkeit" auch auf die KI anwenden. Schließlich partizipieren Unternehmen aus der EU auch jetzt schon an der Entwicklung, wie Erfolgsbeispiele wie DeepL zeigen. Darüber hinaus wirken die Warnungen vor einem "digitalen Protektionismus" unnötig überhöht. Deutsche Unternehmen können auch noch in ein paar Monaten auf Know-How von OpenAI und Co. zurückgreifen und ihre Lösungen darauf aufbauen. "Ich weiß nicht, ob man bei solchen Technologien noch von internationaler Abgehängtheit sprechen kann", stellt auch Christoph Windheuser von Databricks fest und ergänzt: "Solche Aussagen ergeben vielleicht gar keinen Sinn mehr in einer Welt der Hochverfügbarkeit."

Andreas Gödde zieht eine Parallele zum europäischen Exportschlager DSGVO: "Mehr Regulierung und Vorsicht wird auch ein Wettbewerbsvorteil für Europa sein. Wir können der Kontinent der 'guten' KI werden, auch wenn das vermeintlich länger dauert und mühsamer ist. 'Einfach mal machen' ohne einen ethischen oder regulatorischen Rahmen im Unternehmen ist vor allem bei kritischen Prozessen der falsche Weg."

Studie "Applied AI 2023": Sie können sich noch beteiligen!

Zum Thema Applied AI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, helfen Ihnen Regina Hermann (regina.hermann@foundryco.com, Telefon: 089 36086 161) und Manuela Rädler (manuela.raedler@foundryco.com, Telefon: 089 36086 271) gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Arbeitsmarktrisiko oder -chance?

Abseits der rechtlichen Voraussetzungen ist die gegenwärtige "Implementierungslücke" auch im Know-How bedingt. Sie ist durch ChatGPT sichtbarer geworden, war aber schon vorher existent. Aus Sicht von Ricardo Ullbrich von SS&C BluePrism liegt das vor allem am Fachkräftemangel: "Die Möglichkeiten sind nicht erst seit ChatGPT gigantisch, aber es haben immer auch die Köpfe gefehlt, um das technologische Potenzial in großem Stil auszuschöpfen. Das ist auch jetzt der limitierende Faktor."

KI wird zwar oft als Bedrohung von Arbeitsplätzen wahrgenommen, kurzfristig könne sie aber sogar für einen Nachfrageschub nach KI-Experten sorgen. Es ist dabei noch keineswegs entschieden, wohin die Richtung insgesamt gehen wird, weil die Erfahrungen fehlen. Prognosen reichen von flächendeckendem Jobsterben bis zu einer weiteren Akademisierung klassischer Berufe. Der Grad der Disruption - auch der gesellschaftlichen - wird dabei sehr von der Geschwindigkeit abhängen, in der konkrete Use Cases entstehen.

Zur Versachlichung der Debatte empfiehlt Jens Duhme von Atos einen Blick in die jüngere Vergangenheit: "Auch die Automatisierungswelle der 1980er Jahre hat damals viele Ängste vor einem Jobverlust erzeugt. Die Katastrophen sind aber auch dort ausgeblieben. Natürlich werden einfachere Jobs verschwinden, aber auch neue entstehen. Wichtig ist vor allem, dass die Geschwindigkeit uns als Gesellschaft nicht überfordert. "

Auch Harald Huber von USU warnt vor Fatalismus: "Die Welt wird sich verändern, aber von Katastrophenszenarien sind wir weit entfernt." Aus seiner Sicht würden selbst klassische redaktionelle Tätigkeiten nicht verschwinden, sondern sich eher verändern. Dort wo früher reine Schreibarbeit erbracht wurde, steht künftig die Wissensaggregation im Mittelpunkt.

Der aktuelle Hype um künstliche Intelligenz ist irgendwie anders, irgendwie substanzieller als Krypto und Metaverse - aber trotzdem immer noch ein Hype. In einer Phase, in der Euphorie und Warnung teilweise von denselben Leuten und Unternehmen kommen (kurzweilig aufgezeigt im Vortrag von Jürgen Geuter auf der diesjährigen re:publica-Konferenz - siehe untenstehendes Video), sind Innehalten und die nüchterne Bestandsaufnahme nicht die schlechtesten Vorgehensweisen. Oder, wie Harald Huber im Rahmen der Expertenrunde abschließend konstatiert: "Auch bei KI muss gelten 'Wenn du etwas tust, bedenke das Ende'."

Informationen zu den Partner-Paketen der Studie 'Applied AI 2023'