Risiken wie Seuchen und Atomkrieg

KI-Branche bettelt um Regulierung

30.05.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
KI-Entwickler warnen vor ihren eigenen Schöpfungen. Manager wie OpenAI-CEO Sam Altman fordern, dass die Risikominimierung oberste Priorität haben müsse.
Droht, der schöne KI-Traum zu platzen? Experten fordern, dass die damit verbundenen Risiken genau im Blick behalten werden müssten.
Droht, der schöne KI-Traum zu platzen? Experten fordern, dass die damit verbundenen Risiken genau im Blick behalten werden müssten.
Foto: ozalpvahid - shutterstock.com

Die Forderungen nach Leitplanken für die Entwicklung und den Einsatz von KI werden immer lauter. In einem kurz gehaltenen Statement, das auf der Website des Center for AI Safety (CAIS) veröffentlicht wurde, warnen prominente Vertreter der IT-Branche vor den Risiken der Technik. Dort heißt es: Die Minderung des Risikos, dass die menschliche Gesellschaft durch KI vernichtet wird, sollte neben anderen Risiken mit vergleichbaren Ausmaßen wie Pandemien und Atomkrieg eine globale Priorität besitzen.

Wie dieses Risiko genau aussieht, wird in dem Statement nicht näher spezifiziert. Offensichtlich wollen die Initiatoren mit ihrer generisch gehaltenen Forderung möglichst vielen Prominenten die Möglichkeit geben, sich der Petition anzuschließen. Angesichts der rasanten KI-Entwicklung sowie der kaum abschätzbaren Folgen sei es oft schwierig, Bedenken hinsichtlich von KI-Risiken konkret zu benennen, heißt es auf der Seite des CAIS. Vielmehr gehe es mit der knappen Erklärung auch darum, eine Diskussion in Gang zu bringen.

Zu den Unterzeichnern der Petition gehören neben Wissenschaftlern wie Geoffrey Hinton, emeritierter Professor an der University of Toronto, der kürzlich seinen Job bei Google hingeschmissen hatte, auch die Führungsriege von OpenAI mit CEO Sam Altman, Chief Scientist Ilya Sutsever und Technikchefin Mira Murati. Weiter finden sich in der Liste der Unterzeichner die Namen prominenter Firmenlenker wie Demis Hassabis, CEO von Googles KI-Tochter DeepMind, Dario Amodei, CEO des KI Startup Anthropoic, sowie die hochrangigen Microsoft-Manager Kevin Scott (CTO) und Chief Scientific Officer Eric Horwitz.

Pause für KI-Entwicklung

Erst Ende März dieses Jahres hatten Experten aus Wissenschaft und Wirtschaft in einem offenen Brief gefordert, die KI-Entwicklung für sechs Monate zu pausieren. In dieser Zeit solle ein Regelwerk für den Einsatz entsprechender Technologien entwickelt werden, forderten unter anderen Tesla-Chef Elon Musk und Apple-Mitbegründer Steve Wozniak.

KI-Regulierung: AI Act zwischen Innovation und Verbraucherschutz

Immer intelligentere KI-Systeme könnten große Risiken für Gesellschaft und Menschheit bergen, hieß es in dem Brief. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn ihre Auswirkungen positiv und ihre Risiken überschaubar seien. Allerdings würden Entwickler ihre KI-Programme schon heute nicht mehr verstehen, geschweige denn kontrollieren können.