KI-Zertifizierung

Kompass für vertrauenswürdige künstliche Intelligenz

31.03.2021
Von   IDG ExpertenNetzwerk


Prof. Dr. Jörn Müller-Quade ist Inhaber des Lehrstuhls für IT-Sicherheit am Karlsruher Institut für Technologie (KIT) und leitet dort die Arbeitsgruppe Kryptographie und Sicherheit. Er ist zudem Direktor am Karlsruher Forschungszentrum Informatik (FZI), Sprecher des Kompetenzzentrums für Angewandte Sicherheitstechnologie und koordiniert das Begabtenkolleg zur zielgerichteten Förderung herausragender Studenten. In der Plattform Lernende Systeme leitet er die Arbeitsgruppe IT-Sicherheit und Privacy. Für seine Forschung wurde er 2008 und 2014 mit dem ersten Platz beim Deutschen IT-Sicherheitspreis der Horst Görtz Stiftung ausgezeichnet.
Eine Zertifizierung von KI stärkt das Vertrauen in die Technologie. Dabei kommt es auf das richtige Maß an, um die Innovationskraft Deutschlands zu erhalten.
Zertifikate für künstliche Intelligenz sollten sich am Anwendungskontext der KI orientieren. Dementsprechend können unterschiedliche Vorgaben angesetzt werden.
Zertifikate für künstliche Intelligenz sollten sich am Anwendungskontext der KI orientieren. Dementsprechend können unterschiedliche Vorgaben angesetzt werden.
Foto: Olivier Le Moal - shutterstock.com

Künstliche Intelligenz (KI) und lernende Systeme werden unseren Alltag und unsere Wirtschaft verändern – und tun es schon heute. Sie unterstützen uns beim Verwalten unserer Flut an digitalen Bildern, bei der Verbesserung von Impfstoffen gegen COVID-19 und bei der Navigation beim Autofahren. In Zukunft können intelligente Systeme den Verkehr optimieren, Krankheiten erkennen oder Roboter in der Pflege oder bei Rettungseinsätzen helfen. Gerade weil die Anwendungsmöglichkeiten von KI-Systemen so vielseitig sind, ist es unerlässlich, dass sie vor Angriffen geschützt, ethisch unbedenklich und ihre reibungslose Funktion sichergestellt sind.

Einer aktuellen Umfrage des Bitkom zufolge wünscht sich eine große Mehrheit der Deutschen eine sichere KI und verlangt, dass KI-Systeme vor ihrer Nutzung besonders gründlich geprüft werden. Inwieweit der Nutzen der KI-Systeme zum Tragen kommt, hängt also vom Vertrauen ab, das die Menschen in sie setzen. Ein Weg zu vertrauenswürdiger Künstlicher Intelligenz kann die Zertifizierung von KI-Systemen sein. Sie ist eine meist zeitlich begrenzte Bestätigung durch unabhängige Dritte, dass vorgegebene ethische und technische Standards, Normen oder Richtlinien eingehalten werden. So stellt die Zertifizierung eine Möglichkeit dar, die Qualität von KI-Systemen sicherzustellen.

KI-Zertifizierung mit Augenmaß

Dennoch sollte das Werkzeug der Zertifizierung von intelligenter Software und Maschinen mit Augenmaß genutzt werden. Zu strenge Kriterien für eine Zertifizierung bedeuten übermäßig hohe Hürden für Entwickler und Anwender und können Innovationen hemmen. Nicht jede KI-Anwendung muss zertifiziert werden. Während ein Großteil der KI-Systeme unbedenklich sein dürfte, wie etwa Algorithmen zur Identifizierung von Spam-Mails, gibt es Anwendungen, die einer genaueren Prüfung unterzogen werden sollten. Hierzu zählen sicherlich medizinische Assistenzsysteme, die Diagnosen und Empfehlungen für die Behandlung von Patienten aussprechen oder Software für autonome Fahrzeuge. Eine zentrale Herausforderung ist also, sich auf eine Zertifizierung zu verständigen, die Sicherheit garantiert und gleichzeitig unsere Innovationskraft erhält.

Lesetipps:

Nur sichere KI-Systeme schaffen Vertrauen

Autonomes Fahren - Alles zur Zukunft der Mobilität

Die Plattform Lernende Systeme nimmt sich der Herausforderung der Zertifizierung von KI an. Sie wurde vom Bundesministerium für Bildung und Forschung (BMBF) und acatech - Deutsche Akademie der Technikwissenschaften 2017 gegründet und beschäftigt sich mit der Frage, wie künstliche Intelligenz im Sinne des Menschen gestaltet werden kann – und was Wirtschaft, Gesellschaft und Politik dazu beitragen können.

Eine gute Grundlage für die Entwicklung von Zertifizierungsverfahren für KI bietet das Weißbuch zu Künstlicher Intelligenz der EU-Kommission. Die Anfang 2020 veröffentlichten Vorschlägen folgen einem risikobasierten Ansatz:

  • KI-Systeme mit hohem Risiko sollen spezifischen Anforderungen unterliegen, etwa in Bezug auf Diskriminierungs- und Datenschutz.

  • Für KI-Systeme ohne hohes Risiko soll eine freiwillige Kennzeichnung ermöglicht werden.

Die Bundesregierung unterstützt in einer Stellungnahme die Ansätze der EU-Kommission weitestgehend.

Risikopotenzial und Anwendungskontext beachten

Diesen Ansatz erweitert die Plattform Lernende Systeme um das Konzept der Kritikalität. Das heißt, dass KI-Systeme entsprechend ihres Risikopotenzials bewertet werden, um zu ermessen, ob und inwiefern eine Regulierung notwendig ist. Je höher die Kritikalität, desto eher lässt sich eine starke Regulierung begründen.

Für die Einschätzung der Kritikalität ist zum einen der mögliche immaterielle oder physische Schaden zu berücksichtigen, wie etwa die Gefährdung von Menschen oder ihren Persönlichkeitsrechten, aber auch andere Gefahren wie etwa für die Umwelt. Zum anderen sind die Handlungsoptionen von Menschen zu prüfen. Das meint etwa, welche Kontrollmöglichkeiten der Mensch hat oder wie gut sich der oder die Einzelne der jeweiligen Anwendung entziehen kann, beispielsweise durch Rückgriff auf andere Produkte. Auf dieser Basis können staatliche Prüfstellen ermitteln, welche Produkte oder Prozesse zertifiziert werden müssen – und welche nicht. In nicht reglementierten Bereichen kann sich das Unternehmen für eine freiwillige Zertifizierung entscheiden.

Entscheidend für die Kritikalität ist der Anwendungskontext. Das gleiche System kann in einem Anwendungskontext unproblematisch und in einem anderen höchst kritisch sein. Ein Staubsaugerroboter zum Beispiel kann trotz seines hohen Maßes an Autonomie zunächst als vergleichsweise unproblematisch gelten, sammelt er aber Daten, die er seinem Hersteller zur Verfügung stellt, kann die Bewertung kritischer ausfallen.

Zudem stellt sich die Frage, an welchen Kriterien sich die Zertifizierung orientieren soll. Im Impulspapier der Plattform Lernende Systeme wurden dazu ein Katalog von Mindestkriterien und ein Katalog für darüber hinausgehende Kriterien erarbeitet. Zur Überprüfung der Mindestkriterien sollten KI-Systeme unter anderem auf ihre Transparenz und Nachprüfbarkeit, auf ihre Sicherheit und Zuverlässigkeit untersucht werden. Nicht-intendierte Folgewirkungen auf den Menschen, andere Systeme oder die Umwelt müssen ausgeschlossen werden können. Die Privatheit und die Persönlichkeit müssen unter allen Umständen geschützt werden, zudem müssen Gleichheit und Diskriminierungsfreiheit gewahrt werden. Weiter muss der Mensch zu einer selbstbestimmten Nutzung des KI-Systems in der Lage sein.

Als darüber hinausgehende Kriterien, im Sinne einer „Zertifizierung plus“, kommen etwa die Menschenzentrierung oder die Nutzerfreundlichkeit eines KI-Systems in Frage sowie die Systemoperabilität oder die Begrenzung der Systemfunktionalität. Auch Nachhaltigkeit könnte ein weiteres Kriterium darstellen.

Lesetipp: Nachhaltigkeit in Unternehmen

Herausforderung: Dynamik von KI-Systemen

Für die Zertifizierung stellt die Eigenschaft von lernenden Systemen, sich kontinuierlich selbstständig weiterzuentwickeln, eine besondere Herausforderung dar. Die Zertifizierung sollte durchgeführt werden, bevor das KI-System in der Praxis zum Einsatz kommt. Das KI-System wird unter Umständen einige Zeit nach seiner Inbetriebnahme den Kriterien der Zertifizierung nicht mehr gerecht. Deshalb sollen KI-Systeme in regelmäßigen Abständen rezertifiziert werden.

Es stellt sich allerdings die Frage, wann eine Zertifizierung wiederholt werden muss. Es sollte vermieden werden, das System nach jedem Update oder jeder Weiterentwicklung re-zertifizieren zu müssen. Bestehende Zertifizierungssysteme für Informationstechnologien sind oft zu träge. In der Folge werden IT-Systeme teilweise nicht weiterentwickelt, weil die damit verbundene erneute Zertifizierung zu aufwändig ist. Lernende KI-Systeme verändern sich aber nicht nur bei Updates. Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren. Beispielsweise könnte man die Re-Zertifizierung auf einzelne Teile oder Module beschränken.

Die Zertifizierung sollte ein dauerhaft offener Prozess sein, sodass auf technologische Weiterentwicklungen reagiert werden kann. Um das zu erreichen, benötigt es Feedback-Mechanismen, die mit Weiterentwicklung umgehen können; außerdem müssen die Zertifizierungsstellen dynamisch verfasst sein. Zudem ist es hilfreich, die Prüfverfahren zu dokumentieren, sodass Erfahrungswerte gesammelt und neue Tendenzen und Entwicklungen frühzeitig identifiziert werden können.

Vertrauen schaffen, Innovationen fördern

KI-Systeme können ihren Nutzen für die Gesellschaft und den Einzelnen nur dann voll entfalten, wenn die Menschen Vertrauen in sie setzen. Die Zertifizierung von KI-Systemen kann deshalb dazu beitragen, die Chancen der Künstliche Intelligenz sicher und gemeinwohlorientiert zu nutzen. Damit dies gelingt, muss die Zertifizierung neben ethischen auch ökonomische Erfordernisse im Blick behalten und darf Innovationen nicht behindern.

Eine Überprüfung der Kritikalität eines KI-Systems ermöglicht eine Zertifizierung mit Augenmaß. Denn unbedenkliche Anwendungen müssen nicht zertifiziert werden. Auch muss die Zertifizierung die für KI-Systeme typische Dynamik in der Weiterentwicklung berücksichtigen. Dann kann Zertifizierung ein Weg sein, die Qualität von KI-Systemen zu sichern und Innovationskraft Deutschlands zu fördern. (bw)