Technische Standards gefordert

G7-Staaten warnen vor KI-Gefahren

23.05.2023
Von 
Lucas Mearian ist Senior Reporter bei der Schwesterpublikation Computerworld  und schreibt unter anderem über Themen rund um  Windows, Future of Work, Apple und Gesundheits-IT.
Die G7-Staats- und -Regierungschefs erörterten auf ihrem letzten Treffen auch das Thema Generative KI. Sie fordern Maßnahmen, um AI einzudämmen.
Die G7-Staaten planen die Einsetzung einer Arbeitsgruppe, die sich mit generativen KI-Lösungen befassen soll.
Die G7-Staaten planen die Einsetzung einer Arbeitsgruppe, die sich mit generativen KI-Lösungen befassen soll.
Foto: rarrarorro - shutterstock.com

Bei ihrem Treffen in Hiroshima, Japan, diskutierten die Staats- und Regierungschefs der G7-Staaten nicht nur über den Ukraine-Krieg oder das Verhältnis zu China und Russland, sondern auch über die Gefahren, die von generativer KI ausgehen. Sie erklärten, dass sich die Nationen auf eine gemeinsame Vision und ein gemeinsames Ziel für eine vertrauenswürdige KI einigen müssten. Dabei könnten die Lösungen unterschiedlich sein.

G7-Staaten fordern KI-Regulierung

Konsens war allerdings, dass jede Lösung "im Einklang mit den gemeinsamen demokratischen Werten stehen" müsse. Die G7, zu denen die USA, Japan, Deutschland, Großbritannien, Frankreich, Italien, Kanada und die EU gehören, betonten ferner, dass die Bemühungen zur Schaffung vertrauenswürdiger KI "Governance, Schutz der Rechte an geistigem Eigentum einschließlich Urheberrechten, Förderung von Transparenz und Reaktion auf ausländische Informationsmanipulation, einschließlich Desinformation" umfassen müssen.

Pläne für G7-Arbeitsgruppe

Konkret wurde die Einsetzung einer G7-Arbeitsgruppe bis Ende des Jahres gefordert. Diese soll sich mit möglichen generativen KI-Lösungen befassen. "Wir wollen, dass KI-Systeme genau, zuverlässig, sicher und nicht diskriminierend sind, unabhängig von ihrer Herkunft", so Ursula von der Leyen, Präsidentin der Europäischen Kommission.

Eine der Forderungen ist der transparente Einsatz von KI.
Eine der Forderungen ist der transparente Einsatz von KI.
Foto: ParinPix - shutterstock.com

Die Gefahren von KI sieht auch Avivah Litan, Vizepräsidentin und Analystin bei Gartner Research. Sie fordert deshalb, dass "die Regulierungsbehörden Fristen festlegen sollten, innerhalb derer Anbieter von KI-Modellen Standards verwenden müssen, um die Herkunft von Inhalten, Software und anderen digitalen Assets, die in ihren Systemen verwendet werden, zu authentifizieren.

Gartner fordert KI-Standards

Beispiele für solche Standards sind für Litan C2PA, Scitt.io und IETF. Weiter mahnt sie, "wir müssen handeln, und zwar bald". Erste Ansätze dazu legte die EU mit der Einigung auf den AI Act vor. Er soll generative Tools wie ChatGPT, DALL-E und Midjourney in Bezug auf Design und Einsatz eindämmen und mit dem EU-Recht und den Grundrechten in Einklang bringen.

Auch das Weiße Haus stellte Anfang des Monats KI-Regeln vor, um Sicherheit und Datenschutz zu gewährleisten. Der Vorstoß der Biden-Administration knüpft an frühere Versuche an, eine Form der verantwortungsvollen Innovation zu fördern, doch der Kongress hat bislang keine Gesetze zur Regulierung der KI auf den Weg gebracht.

Bisherige Maßnahmen reichen nicht

Allerdings kritisiert die Gartner-Analystin, dass diese Maßnahmen "nicht das sind, was wir jetzt brauchen". So seien die Vereinigten Staaten bei der Entwicklung von KI-Regeln so etwas wie ein Nachzügler. Deshalb müssten die US-Regulierungsbehörden ihr Tempo erhöhen.

Eine Regulierung wäre auch in den Augen von Sam Altman, CEO des ChatGPT-Erfinders OpenAI, "klug". Die Menschen, so der CEO müssten wissen, ob sie mit einem KI-System sprechen oder sich von einem Chatbot generierte Inhalte - Bilder, Videos oder Dokumente - ansehen.

China als Vorbild?

Geradezu ein Armutszeugnis für die westlichen Demokratien ist, dass in diesem Zusammenhang viele Kritiker den Einparteienstaat China als Vorbild nennen. So sei die Volksrepublik weltweit führend bei der Einführung mehrerer Initiativen zur KI-Governance, auch wenn sich die meisten dieser Initiativen auf die Privatsphäre der Bürger und nicht unbedingt auf das Thema KI-Sicherheit beziehen würden.