Fraunhofer warnt

KI und Big Data fehlt die Rechtsicherheit

21.11.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Nutzer von KI- und Big-Data-Anwendungen bewegen sich derzeit auf dünnem Eis. Denn nach Ansicht einer Fraunhofer-Studie reicht der rechtliche Rahmen hierzu aktuell nicht aus.
Ein aktuelle Studie findet, dass der aktuelle Rechtsrahmen nicht für eine sichere Verarbeitung von Big Data und KI ausreicht.
Ein aktuelle Studie findet, dass der aktuelle Rechtsrahmen nicht für eine sichere Verarbeitung von Big Data und KI ausreicht.
Foto: Dragon Claws - shutterstock.com

KI-Anwendungen wie ChatGPT, Midjourney und Co., die riesige, reale Datenmengen verarbeiten, sind in aller Munde. Doch dürfen zum Training der KI beliebige Daten aus dem Internet genutzt werden? Welche Schutzrechte greifen hier? Wem gehören die von der KI generierten Daten?

Die Autorinnen und Autoren der Studie "Systematic Privacy in real-life Data Processing Systems" am Nationalen Forschungszentrums für angewandte Cybersicherheit ATHENE kommen diesbezüglich zu einem ernüchternden Ergebnis: Der aktuelle Rechtsrahmen reicht für eine sichere Verarbeitung von Big Data und KI nicht aus.

Risiko Persönlichkeitsrechte

Vielmehr, so die Forscher, berge die Verarbeitung dieser großen Datensätze erhebliche Risiken für Wirtschaft und Gesellschaft, etwa durch die Verletzung von Persönlichkeitsrechten. Dazu untersuchten die Autoren geltende Vorschriften aus den Rechtsbereichen Datenschutz, IT-Sicherheitsrecht und Urheberrecht in Bezug auf Big Data. Ebenso betrachteten sie den Entwurf über eine EU-Verordnung zur Künstliche Intelligenz (KI-VO-E).

Die Autoren der Studie "Systematic Privacy in real-life Data Processing Systems" sehen ein grundlegendes Problem bei der Anonymisierung von personenbezogenen Daten.
Die Autoren der Studie "Systematic Privacy in real-life Data Processing Systems" sehen ein grundlegendes Problem bei der Anonymisierung von personenbezogenen Daten.
Foto: ATHENE-Center

Ein grundlegendes Problem sieht die Studie dabei in der Anonymisierung von personenbezogenen Daten, um sie verarbeiten zu können. Ab wann sind (ehemals) personenbezogene Daten verlässlich und rechtssicher anonymisiert? Hier gebe das geltende Recht - auch die DSGVO - keine abschließende Antwort. Eine mögliche Lösung wäre für die Studienautoren, einen Grad der Anonymisierung durch ein einheitliches Verfahren zu berechnen und einen Schwellenwert für die legale Nutzung anzusetzen.

Drängendes Problem

Wie dringend eine Lösung dieses Problems ist, verdeutlichen die Forscher an einigen Praxisbeispielen. So lassen sich im Katastrophenschutz Personen über Big-Data-Analysen von Handydaten schneller finden und evakuieren.

In Schulen wiederum ermöglichen es Big-Data-Analysen, Stärken und Schwächen von einzelnen Schülerinnen und Schülern zu erfassen und daraus individuelle Lernprogramme zu entwickeln. Ein weiteres Einsatzfeld für die staatliche Nutzung von Big-Data-Analysen sei etwa der Arbeitsmarkt: So werden in Österreich und Polen die Arbeitsmarktchancen arbeitsloser Personen errechnet und kategorisiert.

Rechtlich auf wackeligen Beinen

Alle diese Anwendungen stünden aber rechtlich auf wackeligen Beinen. In den Augen der Forscher ist deshalb ein ganzheitlicher Ansatz vonnöten. Dieser sollte übergreifend verschiedene Rechtsgebiete berücksichtigen, um einerseits Bürgerinnen und Bürger zu schützen, andererseits Unternehmen wie Herstellern Rechtssicherheit zu geben. So könne die Nutzung neuer Technologien unter Berücksichtigung von Datenschutz und IT-Sicherheit ermöglicht werden.

Die Studie entstand im Rahmen eines ATHENE-Projekts. ATHENE ist eine Forschungseinrichtung der Fraunhofer-Gesellschaft mit ihren beiden Instituten Fraunhofer SIT und IGD unter Beteiligung der TU Darmstadt, der Goethe-Universität Frankfurt und der Hochschule Darmstadt für IT-Sicherheit und Privatsphärenschutz in Europa.

Die vollständige Studie kann kostenlos unter https://www.athene-center.de/forschung/leap-studienheruntergeladen werden.