Unterschiedliche Haftungsschäden: Juristische Debatte über Künstliche Intelligenz

„Künstliche Intelligenz ist ein Begriff aus dem Marketing“, erklärte Prof. Dr. Thomas Riehm von der Universität Passau. Techniker sprächen eher von „Maschinellem Lernen“.
Bei der interdisziplinären Tagung „Qualität Künstlicher Intelligenz: Bewertung, Sicherung, Anwendungsbeispiele“ des Instituts für das Recht der Digitalisierung der Philipps-Universität sprach Riehm am Donnerstag (7. Juli) im „Congresszentrum“ im Rosenpark über das Haftungsrecht in Bezug auf Algorithmen. Selbstlernende Computerprogramme stellten die Rechtsprechung vor zahlreiche neue Fragen, die längst noch nicht alle beantwortet sind. Allerdings sprach sich er Jurist dafür aus, die Antworten größtenteils mit den vorhandenen rechtlichen Regelungen zu beantworten.
Die sogenannte „Künstliche Intelligenz“ (KI) als eigenes Rechtssubjekt zu betrachten, lehnte er weitgehend ab. Zum Einen sei ein Algorithmus für Fehler nur schwer selbst haftbar zu machen; zum Zweiten führe das auch bei den meisten haftungsrechtlichen Problemen nicht wirklich weiter. Stattdessen plädierte Riehm für die „Gefährdungshaftung“, die denjenigen für die Schäden einer Technik haftbar macht, der si in die Welt setzt.
Allerdings sei bei selbst lernenden Computerprogrammen auch das schwierig, da sie sich oft durch eine Vielzahl von Daten immer weiterentwickeln und dann zu oft unvorhersehbaren Ergebnissen kommen könnten. Mitunter sei dabei auch von Bedeutung, welche Datensätze ein System eingegeben bekommt. Dafür könnten eventuell auch diejenigen haftbar sein, die diese Datensätze auswählen.
Eine mögliche Lösung sieht Dr. Erik Weiss von der Universität Köln in einer Zertifizierung. In einem interdisziplinären Team erarbeitet er derzeit die dafür notwendigen Fragestellungen. Eine Zertifizierung „Künstlicher Intelligenz“ könne Vorbehalte abbauen und Vertrauen schaffen, erklärte er.
Das sei nicht nur im Sinne des Verbraucherschutzes, sondern auch im Eigeninteresse der Anbieter und Anwender. Allerdings müsse eine Zertifizierung nicht nur unterschiedlichste Fragen von den möglichen Folgen eventueller Fehlleistungen der Software klären, sondern beispielsweise auch, wann nach einer wesentlichen Änderung der Software eine erneute Überprüfung erforderlich wird. Allerdings gibt es laut Riehm viele Anwendungsbereiche Maschinellen Lernens, wo ein bestimmter Stand für die Anwendung „eingefroren“ wird und wo deshalb nur bei einem Update eine erneute Zertifizierung nötig wird.
In einer lebhaften Diskussion unter der Moderation des Veranstalters Prof. Dr. Florian Möslein wurden zwei Gesetzgebungsvorhaben der Europäischen Union (EU) zur „KI“ genannt. Während das „KI-Gesetz“ aus den Reihen des EU-Parlaments bislang noch wenig ausgereift und eher nebulös sei, gehe der Kommissionsentwurf für ein EU-Haftungsrecht nach Riehms Einschätzung „in die richtige Richtung“. Allerdings herrsche derzeit noch eine „Regelungslücke“, die zur Ausarbeitung geeigneter Zertifizierungsmethoden mit Hilfe der bereits bestehenden Zertifizierungsorganisationen genutzt werden könne.
Eine Podiumsdiskussion mit Praktikerinnen und Praktikern aus der Entwicklung und Überwachung der „KI“ lenkte den Blick dann noch stärker auf die bereits bestehenden Ansätze und Fragestellungen. Filiz Elmas vom Deutschen Institut für Normung (DIN), die schleswig-holsteinische Datenschutzbeauftragte Marit Hansen, Dr. Sebastian Hallensleben vom Verband der Elektrotechnik Elektronik Informationstechnik und Prof. Dr. Martin Hirsch vom Institut für Künstliche Intelligenz am Universitätsklinikum Marburg beleuchteten das Thema aus der Perspektive konkreter Anwendungen.
Hansen erwähnte den „selbst lernenden Staubsauger“, der bei seiner Arbeit Grundrisse und sogar Videos der jeweiligen Wohnung an den Hersteller übermittelt, der damit problematische Einblicke in intimste Bereiche der Anwenderinnen und Anwender erhält. Im Falle von Tracking-Apps, die Gesundheitsdaten Sport treibender Soldaten übermittelt haben, habe das sogar einen Angriff auf deren Stützpunkt erleichtert. Datenschutz müsse deshalb ein wichtiges Kriterium bei jeder Zertifizierung sein.
Hirsch nannte „Argumentationsfähigkeit“ als weiteres Kriterium. Als Entwickler medizinischer Apps halte er es für wichtig, die inhaltlichen Gründe nachvollziehen zu können, warum eine „KI“ eher diese als jene Lösung bevorzugt. Dabei sei nicht der Rechenweg wichtig, sondern die inhaltliche Begründung.
„Als Arzt erkläre ich den Patienten ja ach nicht, dass das Problem über den Vorderen Cortex in den Hypothalamus und dann weiter ins Sprachzentrum gelangt ist, von wo aus es meine Zunge steuert“, erläuterte er. Ebensowenig interessiere die Anwenderinnen und Anwender, wie eine „KI“ arbeitet. Wichtig sei ihnen vielmehr, ihre Ergebnisse verstehen und selber mit eigenen Argumenten entkräften oder erhärten zu können.
Lediglich in einem Bereich sieht Riehm einen Sinn, sogenannter „Künstlicher Intelligenz“ eine eigene Rechtsfähigkeit zuzusprechen: Wenn sie Fonds auf der Basis von Algorithmen verwalte und somit auch über eigenes Geld verfüge, dann könne sie juristisch genauso behandelt werden wie eine Gesellschaft, die von natürlichen Personen geleitet wird. Wenn der Fonds so ins Handelsregister eingetragen sei und seine Kundschaft das wisse, dann sei dagegen wohl wenig einzuwenden.
Alle straf- und verfassungsrechtlichen Fragen könne man nach Riehms Ansicht mit den bestehenden rechtlichen Reglungen lösen. „Diskriminierung ist nach dem Allgemeinen Gleichbehandlungsgesetz verboten; und dabei spielt es keine Rolle, ob sie durch Computerprogramme oder Menschen erfolgt“ erklärte er.

* Franz-Josef Hanke

Kommentare sind abgeschaltet.