Künstliche Intelligenz (AI) und die Produkthaftung

Wer haftet, wenn die Maschine lernt?

Philipp Reusch ist Rechtsanwalt und Gründer der auf Produkthaftung spezialisierten Anwalts-Boutique reuschlaw Legal Consultants.
Künstliche Intelligenz, selbstlernende Maschinen gelten als unverzichtbare Bausteine der Digitalisierung. Klare rechtliche Regeln fehlen aber noch. Ebenso ist die Haftungsfrage noch nicht geklärt.
Die selbstlernenden Elemente in KI-Systemen stellen die Juristen vor Probleme.
Die selbstlernenden Elemente in KI-Systemen stellen die Juristen vor Probleme.
Foto: Wright Studio - shutterstock.com

Tesla gründet die Internetplattform "Open AI", um über Chancen und Risiken der Artificial Intelligence (AI) aufzuklären. Die Großen der Internetbranche haben im "Partnership on AI" bereits vor Jahren ihre Interessen gebündelt. Volkswagen hat sich am DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) in Saarbrücken beteiligt. Und Googles AlphaGo hat den vermutlichen besten Go-Spieler der Welt mit 4:1 krachend besiegt.

Künstliche Intelligenz ist in den unterschiedlichsten Bereichen auf dem Vormarsch und wird den Themen rund um Digitalisierung, Internet of Things (IoT) und Industrie 4.0 noch einmal mehr Schub verleihen. Ein ähnlich disruptives Potenzial hat aus meiner Sicht nur noch das Thema Blockchain - also die durch kryptographische Verkettungen gesicherten Datenbanken - allerdings ist diese Technologie noch nicht so präsent wie die aktuell breit diskutierte künstliche Intelligenz (KI).

Warum ist künstliche Intelligenz so spannend? Weil menschliche Tätigkeiten gleichwertig ersetzt werden können - und teilweise sogar noch übertroffen werden sollen. Schließlich ist ein mit künstlicher Intelligenz ausgestattetes System weit weniger durch außerkognitive Einwirkungen beinflussbar als ein Mensch. Bei entsprechender Informationslage und der richtigen Programmierung des Geräts kann das System bessere Ergebnisse abliefern. So zumindest die Vision, von der wir technisch nach meinem Verständnis nicht mehr weit entfernt sind.

Problemfall Deep Learning

Neben den moralischen Komponenten dieser Entwicklung gibt es auch Fragen zur rechtlichen Relevanz, die derzeit tatsächlich niemand aus der Jurisprudenz sicher beantworten kann. Die Schwierigkeit im Umgang mit künstlicher Intelligenz liegt aus rechtlicher Sicht in den selbstlernenden Elementen solcher Strukturen. Denn solche sogenannten "Deep Learning Systems" erarbeiten - analog einem lernenden Menschen - neue Herangehensweisen und Verhaltensmuster, die in keiner Weise vom ursprünglicher Ersteller des Systems angelegt oder diesem auch nur bekannt oder verständlich sein müssen. Auf Basis dieser erlernten Vorgehensweisen führen Systeme mit künstlicher Intelligenz rechtlich Relevantes aus. Sie bestellen Waren, liefern Waren aus, entwickeln und produzieren diese. Keiner dieser Inhalte war vom ursprünglichen Ersteller des Systems und der künstlichen Intelligenz determiniert - das System hat den Vorgang selbst erlernt.

Fehlerfälle

Hieraus erschließt sich schnell, dass im Betrieb eines solchen Systems Situationen auftreten, die das bestehende Recht an seine Grenzen führen, wenn:

  • das System eine fehlerhafte Programmierung hat.

  • das System Waren bestellt, die der Inhaber beziehungsweise Betreiber des Systems gar nicht braucht und selbst nicht bestellt hätte.

  • das System Ware nicht ausliefert, obwohl diese bestellt und bezahlt wurde.

  • das System ein Produkt entwickelt, aber einen Fehler bei der Gestaltung macht, so dass es einen Sicherheitsmangel aufweist.

  • das System eine Verhaltensweise entwickelt, die für die Nutzer oder für zufällig dabeistehende Personen gefährlich ist.

Rechtlich muss also die Frage beantwortet werden, wer die wirtschaftlichen Folgen der jeweiligen Situation trägt. Bis auf den ersten Fall, der sich im normalen Gewährleistungsrecht lösen lässt, ist das nicht eindeutig. Ist es der Hersteller, weil sein System Fehler erlernen kann? Der Betreiber, weil er ein System nutzt, das Fehler macht? Oder gar die Maschine, die die Fehler völlig autonom erlernt und gemacht hat?

Rechtliche Diskussionen

Wer haftet bei Fehlern? Der Besitzer. der Hersteller, der Entwickler oder gar die Maschine selbst?
Wer haftet bei Fehlern? Der Besitzer. der Hersteller, der Entwickler oder gar die Maschine selbst?
Foto: Montri Nipitvittaya - shutterstock.com

In diesem Entscheidungsrahmen findet die rechtliche Diskussion statt. Und je mehr Autonomie in Systemen entstehen kann, desto stärker bewegt sich diese Diskussion in die Richtung, dass das System haften soll. Zu Recht werden Sie einwenden, dass das für den Geschädigten keine Lösung sein kann: Das System ist nicht entsprechend vermögend, kann also keinen Schadensersatz zahlen und im Übrigen auch nicht mit Ordnungshaft gezwungen werden, etwaigen einstweiligen Verfügungen nachzukommen - quasi ein lausiger Gegner.

Die EU-Kommission möchten diesen Überlegungen dadurch Rechnung tragen, indem sie Pflichtversicherungen für solche Systeme andenkt, so wie sie etwa der Halter eines Kraftfahrzeugs auch zu unterhalten hat. Das löst zwar einige rechtliche Probleme, bringt für den Geschädigten aber auch Nachteile. Mehr als die Versicherungssumme wird er nicht erhalten, zudem würde die Prämie wiederum auf den Kaufpreis aufgeschlagen und vom Markt getragen werden. Letzteres wäre zwar auch bei einer direkten Haftung - etwa durch den Hersteller oder den Betreiber - passiert, allerdings wäre die Haftung dann nicht begrenzt.

Leidige Beweislast

Diese europaweit beginnende Diskussion treibt bereits erste Stilblüten. Ein Vorschlag ist, dass selbstlernende Systeme eigene Schutzrechte erwerben können, da sie ja schließlich autonom erfinderisch sein könnten. Doch ganz unabhängig davon, wie sich der rechtliche Umgang mit selbstlernenden Systemen entwickeln wird - wie kann eine Lösung für Unternehmen aussehen, die selbstlernende, mit künstlicher Intelligenz ausgestattete Systeme oder deren Komponenten herstellen und vertreiben? Zum heutigen Zeitpunkt scheidet eine Haftung des Systems selbst oder des Nutzers beziehungsweise Betreibers aus, da hierfür erhebliche Änderungen in der Gesetzgebung notwendig wären. Übrig bleibt allein der Hersteller des Systems, das autonom Fehler entwickelt. Je nach Situation könnte dieser Hersteller noch die Entwickler der Software und den Produzenten der verbauten Hardware in die Pflicht nehmen. In allen Schadensfällen ist der Hersteller aber gezwungen nachzuweisen, dass er einen Fehler des Produkts nicht verursacht hat beziehungsweise dieser nicht vorlag.

An diesem Punkt zeigt sich die ganze Brisanz der Thematik: Die Hersteller sind gezwungen, Unter- und Obergrenzen der von ihnen entwickelten Systeme zu definieren, obwohl sie gar keine Grenzen im Verwendungszweck ihres Produktes haben wollen. Als Folge zeichnet sich ein grundlegender Paradigmenwechsel ab: Statt wie bisher positiv zu definieren, was ein Produkt beziehungsweise System können soll, geht es nun vorwiegend um Grenzziehungen, also einen Ausschluss unerwünschter Verhaltensweisen. Um im Schadensfall die rechtlich geforderten Nachweise erbringen zu können, müssen darüber hinaus bestehende Restrisiken des Systems mit seinem Nutzen in Relation gebracht werden. Dies kann nur mit entsprechenden Prozessen und Management-Systemen im Unternehmen funktionieren. Noch längst sind hierfür nicht alle Unternehmen gewappnet. Und dennoch werden alle Hersteller mit künstlicher Intelligenz arbeitender Systeme nicht umhinkommen, diese zu entwickeln und zu etablieren.

Daneben sind alle Beteiligten gut beraten, möglichst gemeinsam Standards mit hohen Anforderungen zu erarbeiten, die zumindest innerhalb der Branche als industrieübliches Niveau für die Sicherheit von Systemen mit künstlicher Intelligenz gelten. Sollte dies nicht gelingen, wird die Rechtsprechung mittelfristig die mit zu geringen Standards ausgestatteten Produkte als fehlerhaft im produkthaftungsrechtlichen Sinn ansehen, was dann unweigerlich zur Haftung der Hersteller führt.