Zu Vorsicht bei der „KI-Erkennung von Lügen“ raten Prof. Dr. Kristina Suchotzki und Prof. Dr. Matthias Gamer. Ihre Warnung haben sie in der Fachzeitschrift „Trendsin Cognitive Sciences“ veröffentlicht.
Sogenannte „Künstliche Intelligenz“ (KI) soll schon bald dabei helfen, Lügen und Täuschungsversuche zu identifizieren. Ein Forschungsteam der Universitäten Marburg und Würzburg warnt jedoch vor einem verfrühten Einsatz. „Ach, wenn es doch so einfach wäre wie bei Pinocchio. Dem hölzernen Hampelmann war leicht anzusehen, wenn er mal wieder eine Lüge formulierte: Schließlich wurde dabei seine Nase jedes Mal ein Stückchen länger.“
In der Realität ist es sehr viel schwieriger, Lügen zu erkennen; die Wissenschaft beißt sich an entsprechenden Techniken schon lange die Zähne aus. Jetzt soll KI zum Durchbruch bei der Entwicklung eines verlässlichen Lügendetektors verhelfen. Die entsprechende Technik ist in ersten Ansätzen schon im Einsatz beispielsweise in der Auswertung von automatisierten Befragungen Einreisewilliger an den EU-Grenzen Ungarns, Griechenlands und Litauens, mit der Reisende mit kriminellen Absichten identifiziert werden sollen.
Forschende der Universitäten in Marburg und Würzburg warnen jetzt vor einem verfrühten Einsatz von KI zur Lügenerkennung. Ihrer Ansicht nach eignet sich die Technik zwar als potenziell wertvolles Instrument für die Grundlagenforschung. Mit ihrer Hilfe könnte die Wissenschaft bessere Einblick in die psychologischen Mechanismen gewinnen, die der Täuschung zugrunde liegen. Eine konkrete Anwendung jenseits der Wissenschaft betrachten sie jedoch mehr als skeptisch.
Verantwortlich für die – jetzt in der Fachzeitschrift „Trendsin Cognitive Sciences“ veröffentlichte – Studie sind Kristina Suchotzki und Matthias Gamer. Suchotzki ist Professorin an der Philipps-Universität. Ihre Forschungsschwerpunkte beinhalten Lügen und deren Erkennung.
Gamer ist Professor am Lehrstuhl für Psychologie I der Universität Würzburg. Einen seiner Forschungsschwerpunkte bildet die Glaubhaftigkeitsdiagnostik.
Drei Hauptprobleme in der aktuellen Forschung zur KI-basierten Täuschungserkennung benennen Suchotzki und Gamer in ihrer Publikation: Sie fanden ein Mangel an Erklärbarkeit und Transparenz getesteter Algorithmen, das Risiko verzerrter Ergebnisse und Defizite im theoretischen Fundament. Die Ursache dafür sei klar: „Leider haben sich die derzeitigen Ansätze in erster Linie auf technische Aspekte konzentriert, was zu Lasten einer soliden methodischen und theoretischen Grundlage ging“, schrieben die beiden.
In ihrem Artikel legen sie dar, dass viele KI-Algorithmen an einer „mangelnden Erklärbarkeit und Transparenz“ leiden. Oft sei also unklar, wie der Algorithmus zu seinem Ergebnis gelangt. Bei einigen KI-Anwendungen könnten ab einem bestimmten Punkt selbst die Entwickler nicht mehr zweifelsfrei nachvollziehen, wie ein Urteil zustande kommt. Das mache es unmöglich, die Entscheidungen zu beurteilen und die Gründe für falsche Klassifizierungen zu diskutieren.
Als weiteres Problem beschreiben sie das Auftreten von „Verzerrungen“ in der Entscheidungsfindung. Ursprünglich war die Hoffnung, dass Maschinen menschliche Voreingenommenheit – wie zum Beispiel durch Stereotype oder Vorurteile – überwinden könnten. Tatsächlich scheitere diese Annahme aber oft an einer fehlerhaften Auswahl der Variablen, die Menschen in das Modell einspeisen, sowie an der geringen Größe und Repräsentativität der verwendeten Daten. Ganz zu schweigen davon, dass nicht selten in den Daten, die zur Erstellung der Systeme verwendet werden, bereits Verzerrungen vorliegen.
Das dritte Problem ist grundsätzlicher Natur: „Dem Einsatz von künstlicher Intelligenz in der Lügendetektion liegt die Annahme zugrunde, dass es möglich ist, ein eindeutiges Indiz oder eine Kombination von Indizien zu identifizieren, die auf eine Täuschung hinweisen“, erläuterte Suchotzki. Dabei sei jedoch nicht einmal jahrzehntelange Forschung in der Lage gewesen, solche Indizien zu identifizieren. Auch eine Theorie, die ihre Existenz überzeugend vorhersagen kann, existiere nicht.
Von der Arbeit an einer KI-basierten Täuschungserkennung abraten wollen Suchotzki und Gamer jedoch nicht. Schließlich sei es letzten Endes nur eine empirische Frage, ob diese Technik das Potenzial hat, hinreichend valide Ergebnisse zu liefern. Vor dem Einsatz im Alltag müssten allerdings ihrer Meinung nach eine Reihe von Bedingungen gegeben sein.
„Wir empfehlen Entscheidungsträgern dringend, sorgfältig zu prüfen, ob bei der Entwicklung von Algorithmen grundlegende Qualitätsstandards eingehalten wurden“, sagten sie. Voraussetzung seien unter anderem kontrollierte Laborexperimente, große und vielfältige Datensätze ohne systematische Verzerrungen und die Überprüfung der Algorithmen und deren Akkuratheit an einem unabhängigen, umfangreichen Datensatz. Das Ziel müsse sein, unnötige falsch-positive Ergebnisse zu vermeiden und damit den Fall, in dem die KI fälschlicherweise eine Lüge zu erkennen meint.
Dabei bestehe ein großer Unterschied zwischen dem Einsatz von KI als Massen-Screening-Instrument beispielsweise an Flughäfen, und dem Einsatz von KI für bestimmte Vorfälle wie etwa die Vernehmung eines Verdächtigen in einem Kriminalfall. „Bei Massenscreening-Anwendungen werden häufig sehr unstrukturierte und unkontrollierte Bewertungen vorgenommen. Das erhöht die Anzahl der falsch positiven Ergebnisse drastisch“, erklärte Gamer.
Zuletzt raten die beiden Forschenden dazu, KI-gestützte Täuschungserkennung nur in stark strukturierten und kontrollierten Situationen einzusetzen. Obwohl es keine eindeutigen Lügenindikatoren gibt, könne es in solchen Situationen jedoch möglich sein, die Zahl alternativer Erklärungen zu minimieren. Damit steige die Wahrscheinlichkeit, dass Unterschiede im Verhalten oder im Inhalt von Aussagen auf einen Täuschungsversuch zurückgeführt werden können.
Ihre Empfehlungen kombinieren Suchotzki und Gamer mit einer Warnung an die Politik: „Die Geschichte lehrt uns, was passiert, wenn wir uns nicht an strenge Forschungsstandards halten, bevor Methoden zur Täuschungserkennung im wirklichen Leben eingeführt werden.“ Das Beispiel des Polygraphen zeige sehr deutlich, wie schwierig es ist, solche Methoden wieder loszuwerden, selbst wenn sich später die Beweise für eine niedrige Erkennungsrate und die systematische Benachteiligung von unschuldigen Verdächtigen häufen.
* pm: Philipps-Universität Marburg