KI führt zu Fehlverhaftungen: Gesichtserkennung in der Kritik
Die Gesichtserkennungssoftware hat fälschlicherweise mindestens acht Amerikaner identifiziert, was zu ihrer Verhaftung führte, berichtet die "Washington Post".
In den Vereinigten Staaten wurden mindestens acht Personen zu Unrecht verhaftet, weil sie von der Gesichtserkennungssoftware falsch identifiziert wurden. Wie die "Washington Post" berichtet, nutzt die Polizei in den USA künstliche Intelligenz, um Verdächtige festzunehmen, oft ohne zusätzliche Beweise.
Probleme bei der Identifizierung
Die Zeitung analysierte Daten aus Polizeiberichten, Gerichtsakten sowie Gesprächen mit Beamten, Staatsanwälten und Verteidigern. Die Ergebnisse deuten darauf hin, dass das Problem viel größer sein könnte, da Staatsanwälte den Einsatz von KI selten offenlegen und das Gesetz dies nur in sieben Bundesstaaten verlangt. Die Gesamtzahl der ungerechtfertigten Verhaftungen, die auf Fehler der KI zurückzuführen sind, bleibt unbekannt.
In den acht identifizierten Fällen unternahm die Polizei keine grundlegenden Ermittlungsmaßnahmen, wie das Überprüfen von Alibis, den Vergleich von besonderen Merkmalen oder die Analyse von DNA- und Fingerabdruckbeweisen. In sechs Fällen wurden die Alibis der Verdächtigen ignoriert, und in zwei Fällen wurden Beweise, die den Annahmen der Polizei widersprachen, nicht berücksichtigt.
In fünf Fällen wurden keine wesentlichen Beweise gesammelt. Die "Washington Post" nennt das Beispiel einer Person, die wegen des Versuchs, einen gefälschten Scheck einzulösen, verhaftet wurde, wobei die Polizei nicht einmal die Bankkonten des Verdächtigen überprüfte. Dreimal wurden die physischen Merkmale der Verdächtigen ignoriert, die mit der von der KI erkannten Identität nicht übereinstimmten, wie im Fall einer hochschwangeren Frau, die des Autodiebstahls beschuldigt wurde.
In sechs Fällen wurden die Zeugenaussagen nicht überprüft. Ein Beispiel ist die Situation, in der ein Sicherheitsmitarbeiter die Identität eines Verdächtigen im Uhrendiebstahl bestätigte, obwohl er bei dem Vorfall nicht anwesend war.
Zweifel an der Technologie
Die Gesichtserkennungssoftware funktioniert unter Laborbedingungen nahezu perfekt, aber ihre Wirksamkeit in der Praxis bleibt fragwürdig. Katie Kinsey von der NYU weist darauf hin, dass unabhängige Tests zur Überprüfung der Genauigkeit der Technologie bei unscharfen Überwachungsbildern fehlen. Untersuchungen von Neurowissenschaftlern des University College London zeigen, dass Nutzer von KI ihren Entscheidungen blind vertrauen könnten, was zu falschen Einschätzungen führt.
Die "Washington Post" betont, dass das Vertrauen in KI-Systeme die korrekte Beurteilung von Situationen verhindern kann, was im Bereich der Justiz besonders gefährlich ist.