Skip to main content

Ist Künstliche Intelligenz ungerecht?

Polizei Robo Dog
(Foto: Screenshot von YouTube/@kstaTV)

Werden Menschen mit der Anwendung von „Künstlicher Intelligenz“ (KI) bald die gesamte Menschheit auslöschen? Oder werden darüber die Systeme sogar selbst entscheiden? Solche Szenarien hören sich dystopisch an, werden aber aktuell breit diskutiert. Auch die Entwickler_innen bekannter KI-Modelle warnen in den Medien vor den Gefahren der „KI“. Erst im Mai 2024 wurde in der Zeitschrift „Science“ eine entsprechende Warnung ausgespro-chen. Nur werden auch die Warnungen selbst in der Öffentlichkeit kritisch besprochen. 

Ein Argument lautet, dass der Verweis auf solche monströse Folgen, wie das Ende der Menschheit, von der notwendigen Debatte um konkrete ethische Aspekte bereits existierender Anwendungen ablenkt. Bereits jetzt ergeben sich Risiken und Nachteile für einige Personen- und Personengruppen, z.B. in der Verstärkung sozialer Ungleichheit. Im vorliegenden Artikel soll am Beispiel des „Automatic-Deception-Detection-System“ (ADDS) erörtert werden, wie es mittels „KI“ zur Verschärfung von sozialer Ungleichheit kommen kann. Außerdem wird ein Ausblick auf mögliche zukünftige Entwicklungen der Gesellschaft gegeben.

Automatisch erkannte Absichten zur Täuschung?

Zu den Verfahren des „Maschinellen Lernens“ (ML) gehören u.a. sogenannte generative und prädiktive Formen, die als „Künstliche Intelligenz“ bezeichnet werden. Bei ersterem werden Texte, Videos, Audiodateien, Bilder usw. erzeugt (Beispiele sind: ChatGPT und MidJourney). Bei letzterem werden auf historischen Daten bzw. Mustern basierende Modelle erstellt, mit denen Vorhersagen auf neue Daten gegeben werden können. Bei beiden Verfahren können die Ergebnisse bzw. Entscheidungen fehlerhaft sein und Stereotype und Diskriminierungen werden reproduziert. 

So funktioniert Gesichtserkennung besser je heller die Hautfarbe, der Hintergrund in Online-Meetingsoftware überlagert dunklere Gesichter und Frauen werden von der KI häufig in Werbeanzeigen schlechter bezahlte Jobs angezeigt, als Männern.

Zu den Verfahren der prädiktiven KI gehört das „Automatic-Deception-Detection-System“ /ADDS), welches Teil des von 2016 bis 2019 durch ein Forschungsprogramm der Europäischen Kommission geförderten iBorderCtrl-Systems ist. Hierbei werden (halb-)automatisierte Grenzkontrollen im Schengen-Raum untersucht, wobei Tests auf „freiwilliger Basis“ an den Grenzen von Lettland, Griechenland und Ungarn stattfinden. Das iBorderCtrl-System errechnet mittels KI eine Punktzahl für jede_n Einreisende_n aus Nicht-EU-Staaten. Entsprechend dieses Scores soll über die Intensität der jeweiligen Personenkontrolle entschieden werden. Das System wird zurzeit nicht dauerhaft genutzt. Einreisende Personen ohne EU-Pass sollen Fragen von einem Avatar beantworten (z.B. in Gestalt einer computeranimierten Grenzschützer_in). Während des Gesprächs werden die Gesichtsausdrücke und sogenannte Mikroexpressionen analysiert und die Wahrscheinlichkeit einer Lüge berechnet. Auf dieser Grundlage werden von den Grenzbeamten Entscheidungen über wei-tere Maßnahmen getroffen.

Wie sieht die Funktionsweise solcher Systeme aus? Sie werden in der Regel auf der Basis vorhandener Daten trainiert (Trainingsdaten), die das Verhalten dokumentieren (z.B. in einer Videoaufnahme) und bei denen die dazugehörige Information darüber, ob gelogen wird oder nicht, bekannt ist. Entweder werden die Daten in einem kontrollierten Verfahren künstlich hergestellt, wobei Probanden gebeten werden zu lügen oder die Wahrheit zu sagen, oder es werden reale Daten zum Training verwendet, wenn die „Wahrheit“ z.B. nach einer Verurteilung festgestellt werden kann. 

Aus den Trainingsdaten wird z.B. mit Hilfe von künstlichen neuronalen Netzen ein statistisches Modell hergestellt. In diesem werden Verhaltensmerkmale der Personen gespeichert, die mit den beiden möglichen Ergebnissen (Person täuscht oder Person täuscht nicht) gleichzeitig auftreten. Anhand neuer Daten, bzw. solcher, die nicht beim Training verwendet wurden, kann die Qualität der Vorhersagen des Modells bewertet werden. Dabei ist die „KI“ wegen der sehr vielen Kombinationsmöglichkeiten dem Menschen klar überlegen. Allerdings darf Korrelation nicht mit Kausalität verwechselt werden: KI kann nur Zusammenhänge (Korrelationen) erkennen, nicht jedoch Kausalitäten (Ursache und Wirkung). Merkmale und Muster würden vom System als Erkennungszeichen für eine Täuschung untersucht werden. Die mögliche Ursache für eine angezeigte Lüge kann aber nicht aufgedeckt werden.

Automatisierte Unterstützung von Entscheidungen

Prinzipiell ähnlich werden weitere Softwaresysteme zur Unterstützung von Entscheidungsfindungen entwickelt und verwendet: Versicherungen berechnen Risikoklassen, Mieter_innen können überprüft werden, die Kreditwürdigkeit soll so vorhergesagt werden (SCHUFA), Bewerbungsverfahren werden automatisiert, „predictive policing“ (Vorhersagen für die Polizeiarbeit) funktionieren gleichermaßen, wobei z.B. die Rückfallwahrscheinlichkeit von Straftäter_innen vorhergesagt werden soll. Auch der Onlinehandel und andere kommerzielle Bereiche wie Produktverbesserung und Marktforschung nutzen entsprechende Systeme. Außerdem kann das von Überwachungskameras beobachtete Verhalten von Menschen eingeschätzt werden, z.B. in verdächtig/ nicht verdächtig (siehe AIB Nr. 142).

Zusätzlich wird KI immer mehr für militärische und politische Entscheidungen verwendet. Das Pentagon testet Möglichkeiten für die Verwendung von „Large Language Modells“ (LLM) ähnlich wie ChatGPT. Die Software „Palantir Gotham“ von „Palantir Technologies Inc.“ wird u.a. von militärischen und Antiterror-Einheiten eingesetzt, und weitere Systeme für den Einsatz in kriegerischen Auseinandersetzungen zur Zielerfassung von Objekten und Menschen werden trainiert. 

Keine Objektivität, sondern (häufig) Diskriminierung

Ein Argument für die Nutzung IT-gestützter Systeme in Entscheidungsfindungsprozessen ist, dass Menschen als voreingenommen gelten und die KI objektiv sein soll. Allerdings wurden bei den auf Maschinellem Lernen basierenden Entscheidungen immer wieder Diskriminierungen beobachtet. Ursachen dafür gibt es einige: Vereinfacht gesagt lassen sie sich in den (1) Daten, (2) dem Ziel, (3) dem Modell und der (4) Anwendung finden und betreffen dabei wohlgemerkt Entscheidungen, die Menschen haben einfließen lassen.

(1) Trainingsdaten sind Daten, die historisch von Menschen geschaffen wurden. Wenn Entscheidungen in Trainingsdaten die „Grundwahrheit“ angeben, dann sind das Urteile, die von Menschen einmal gefällt wurden (z.B. „eine Person täuscht“). Per Annotation werden die Daten für das Training vorbereitet, den annotierten Daten wurde das „richtige“ Ergebnis (z.B. "Lüge") als „Label“ hinzugefügt. Manchmal werden Daten jedoch irrtümlich falsch annotiert (das Bild einer Katze wird von einem Menschen als Hund „gelabelt“).

Bedeutsamer noch ist die Qualität der Trainingsdaten. Sie können nicht-repräsentativ oder veraltet sein, wodurch bestimmte Gruppen im Datensatz unter- oder überrepräsentiert sein können. Ein gängiges Beispiel dafür ist Gesichtserkennungssoftware, die proportional mit weniger dunkelhäutigen Frauen, als mit hellhäutigen Männern trainiert wurde – sie erkennt erstere dann schlechter. Die genannten Entscheidungen wurden zwar allesamt von Menschen getroffen, die Beteiligung unterschiedlicher Menschen an vielen verschiedenen Stellen im Arbeitsprozess kann aber dazu führen, dass den Beteiligten ihre Verantwortung selbst nicht klar ist. Tatsächlich spiegeln bereits die Trainingsdaten die Herrschaftsverhältnisse und die Machtbeziehungen in der Gesellschaft wider.

(2) Das Ziel vom Automatic-Deception-Detection-System ist es, Lügen zu erkennen, z.B. um Menschen vor einer möglichen Einreise intensiver zu überprüfen. Aber: Gibt es überhaupt überprüfbare Merkmale am Verhalten von Menschen, die darauf hindeuten, dass sie lügen? Auf welchen theoretischen Fundierungen baut das System auf? Genauso könnte das Ziel durch andere (nicht-technologische) Alternativen erreicht werden. Selbst das Ziel kann schon diskriminierend sein (Stichwort: Einreiseverbote). Hier wäre eine rassismus-kritische gesellschaftliche Debatte notwendig.

(3) Ein Modell stellt nur einen Ausschnitt der Wirklichkeit dar und kann nie alle Aspekte erfassen. Menschen entscheiden über die relevanten Aspekte und Kriterien. Falls es Merkmale geben sollte, um z.B. Lügen zu erkennen, welche sind das? Fließen Bewegungen, Gestik und Mimik ein oder auch die Stimmen? Wird auch der Lebenslauf eingespeist? Darüber hinaus entscheiden Menschen mittels eines Schwellenwertes, welche Sensibilität das System haben soll. Sollen so viele täuschende Personen wie möglich erkannt, aber auch mehr unschuldige Personen verdächtigt werden? Oder soll es möglichst wenig Personen zu Unrecht behelligen, jedoch dann auch einige der täuschenden Personen durchlassen?

(4) Bei der Anwendung liegt der Fokus auf den Personen, die das System dann praktisch nutzen. Ist es für sie nur eine Unterstützung oder verlassen sie sich vollständig darauf? Schieben sie ihr Verantwortung (gerne) auf das System ab? Menschen neigen oft dazu, sich auf technische Empfehlungen zu verlassen. Unter Zeitdruck oder aus Angst vor negativen Folgen verstärkt sich diese Tendenz. Es ist eigentlich notwendig, dass die Anwender_innen das System grundlegend verstehen. Aber werden die entsprechenden Personen wirklich verantwortungsvoll geschult und sind sensibel für Diskriminierungen?

Folgen und Auswirkungen

Für einige Personen, die KI entwickeln, ist es vielleicht auch einfach schwer vorstellbar, wie eine diskriminierungsfreie Welt aussehen könnte. Möglicherweise als PR-Gag fiel der KI-Chatbot „Gemini“ von Google damit auf, „woke“ Bilder zu generieren. Der Papst wurde als südostasiatisch und weiblich lesbar präsentiert – die Gründungsväter der USA als nicht nur weiß und männlich gelesene Personen. Der Bot war demnach schwerpunktmäßig auf Diversität, aber nicht auf historische Korrektheit ausgelegt.

Gleichzeitig bildet sich ein immer größerer auf KI-Nutzung basierender Entertainmentbereich, in dem lustige Bilder oder Memes sowie gesamte Musikstücke geschaffen werden können. Oftmals stehen Gratisversionen online zur Verfügung, deren Nutzung zu einer vollkommenen Normalisierung beiträgt, bei unklarer datenschutzrechtlicher Lage. Zudem schleicht sich diskriminierende KI auch weniger offensichtlich in die Alltagswelt ein, z.B. in Foto-Apps, die die Aufnahmen „schöner“ machen (meistens einem westlichen patriarchalem Schönheitsideal folgend). Auch dieses Ausbreiten von KI in den Alltag und die Einflussnahme auf Entscheidungen, Werte und Normen und damit die Gesellschaft, gilt es aufzuzeigen und zu hinterfragen.

Fehlentscheidungen von technischen Systemen fallen im Vergleich zu (rassistischen) Entscheidungen von Menschen möglicherweise weniger qualitativ, jedoch sicher stärker quantitativ ins Gewicht. Menschen können oft nur eine geringe Anzahl an Entscheidungen treffen, aber diejenigen automatischer Systeme können (fast) beliebig skalieren. Eine „Grenzschützer_in“ hat einen begrenzten zeitlichen und örtlichen Wirkungsrahmen, aber automatisierte Systeme, insofern sie reif sind, können an vielen Orten gleichzeitig eingesetzt werden und so eine größere Menge an Entscheidungen treffen.

Künstliche Intelligenzen müssen nicht zwangsläufig diskriminieren, jedoch sind sie auch niemals neutral, denn in ihnen sind die gesellschaftlichen Werte und Normen der Zeit eingeschrieben. Aus subjektiven Entscheidungen von Menschen (siehe Punkt 1, 2 und 3) macht das System ein Ergebnis, welches häufig als Zahlenwerte oder Ampelsysteme objektiv erscheint, jedoch keineswegs objektiv ist.

Die Systeme entfalten demnach eine große Wirkmacht, wenn ihnen von Menschen Objektivität zugeschrieben wird und ihr Output als Wahrheit bzw. „Entscheidungsunterstützung“ verwendet wird. Es ist zu befürchten, dass Anwender_innen der Systeme das Gefühl der Verantwortungsentlastung bekommen und sich bei Fehlentscheidungen oder Diskriminierungen hinter dem System verstecken – so als würde kein menschlicher sondern ein technischer Fehler vorliegen. Dieser Aspekt kann politisch ausgenutzt werden, um ethische Fragen von Entscheidungen abzutrennen, die scheinbar aufgrund einer objektiven Datenlage und im Rahmen eines automatisierten Verfahrens entstanden sind. 

Wegen der (nur) scheinbaren Objektivität kann es schwieriger werden, gegen Fehlentscheidungen vorzugehen, besonders für Personen mit wenig Ressourcen oder diejenigen, die ihre Benachteiligung selbst nicht bemerken. Erst systematische Testungen könnten strukturelle Benachteiligungen sichtbar machen, wenn mit vielen Datenpunkten und nicht vereinzelt getestet wird. Z.B. wurden in einigen Videokonferenzanwendungen die Sprach-Frequenzbereiche von weiblich gehörten Stimmen nur schlecht übertragen, wodurch diese Stimmen weniger kompetent wirken. 

Für Einzelpersonen ist dies als systematische Diskriminierung schwer feststellbar oder mess- und beweisbar. Wenn es jedoch nicht sichtbar ist, fehlt die Möglichkeit, sich zu wehren und den Stereotypen, Diskriminierungen und im erwähnten Fall der Reproduktion patriarchaler Gesellschaftsbilder zu begegnen. Vielmehr werden diese bestätigt, für die Zukunft verfestigt oder überhaupt erst hervorgebracht.

Und nun?

Der AI-Act (EU-Verordnung über die Regulierung von künstlicher Intelligenz, siehe AIB Ausgabe Nr. 142) soll zwar regulieren und „problematische“ KI verbieten – allerdings ist die militärische Forschung davon ausgenommen und für die Strafverfolgung gibt es ebenfalls Ausnahmen, weshalb befürchtet werden muss, dass KI-basierte Systeme zur Strafverfolgung eingesetzt werden. Dies geschieht ohne dass die Trainingsdaten oder das Modell öffentlich einsehbar wären und das System öffentlich zugänglichen systematischen Tests ausgesetzt werden kann.

Die Entwicklung und der Einsatz von KI folgt aktuell dem Interesse von Firmen und Staaten, um beim Einsatz durch die Nutzenden der Verwertungslogik entsprechend das Leben noch „effizienter“ zu gestalten. Dabei greift KI tief in viele Bereiche der Gesellschaft ein. Sie erleichtert, reduziert und kategorisiert, aber reproduziert auch Ungleichheiten und verstärkt damit Diskriminierung.

KI beeinflusst den Alltag von Menschen, ihre sozialen Kontakte, ihre Ressourcen und ihre Chancen und ihre Zukunft. Aufgrund der enormen gesellschaftlichen Bedeutung von KI geht das Thema alle etwas an. Wie die Gesellschaft der Zukunft aussehen soll, sollte nicht einzelnen Firmen oder Forschungsinstituten überlassen werden. 

Selbst wenn es in nächster Zeit zu herben Enttäuschungen bezüglich viel zu hoher Erwartungen in die KI kommen sollte, ist KI bereits jetzt großer Teil der Realität und wird auch nicht einfach verschwinden. Es braucht Menschen, die aktiv die Entwicklung, das Verstehen, die Reglementierung und die Nutzung von KI in die Hand nehmen orientiert an einer Vision einer gerechten und solidarischen Gesellschaft.