Eine neue Ära der Überwachung im öffentlichen Raum
Bereits im April 2021 legte die EU-Kommission den ersten Vorschlag für eine „Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union“ vor. Diese Verordnung wird auch als KI-Verordnung oder AI-Act bezeichnet.
Neben grundsätzlichen Aspekten zur Regulierung von sogenannter KI wird die Verordnung vermutlich richtungsweisend für den Umgang mit biometrischer Überwachungstechnologie sein. Die Verordnung wird als Start in eine neue Ära der Überwachung im öffentlichen Raum diskutiert..1 Sie enthält Regulierungen und damit Legitimierungen für den Einsatz (biometrischer) Überwachung mit algorithmischer Auswertung.
Dieser Text soll Einblicke in die Funktionsweisen und die gesellschaftliche Bedeutung der Anwendungen in Deutschland geben. Bis auf Einzelbeispiele werden hier andere Länder, wie z.B. Frankreich, und die Überwachung an EU-Außengrenzen ausgeklammert, auch wenn eine Beschäftigung damit durchaus eine hohe Relevanz haben könnte.
Überwachung im öffentlichen Raum
Es wird immer schwieriger sich im öffentlichen Raum zu bewegen, ohne von einer Kamera aufgenommen zu werden. Seien es Straßenverkehrskameras, Menschen, die mit Smartphones alles filmen, Kameras, die zu Heimüberwachungssystemen (Ring von Amazon, Nest von Google) gehören, Kameras an Bahnhöfen und im ÖPNV, an und in öffentlichen Gebäuden, im Einzelhandel, eingeschaltete Bodycams, in/an Autos wie Tesla (die mit 360° Kamerasystemen mit bis zu 250m Reichweite ausgestattet sind und im Parkmodus aktiv sein können).“2 In Berlin testet Rewe ein Bezahlsystem, bei welchem Kund:innen mithilfe von Kameras anhand der schematischen Darstellung ihres Knochenbaus (skelettbasiert) erkannt werden. Die Liste ließe sich nahezu beliebig fortführen.
Kameras spielen im Konzept um sogenannte „smart cities“ eine maßgebliche Rolle, z.B. Ampeln, die Autos bzw. Fussgänger:innen erkennen, oder automatische Park-Systeme, die die Parkdauer erfassen und über das Nummernschild funktionieren. So wird der öffentliche Raum zu einer riesigen Sammlung an Daten. Komfort, Gefahrenlosigkeit und Sicherheit werden dabei als Triebkräfte der Verankerung und Akzeptanz von „intelligenter“ Technologie im öffentlichen Raum dargestellt. Dieses Videomaterial kann (biometrisch und) algorithmisch ausgewertet werden und wird in den Vereinigten Staaten bereits von Strafverfolgungsbehörden verwendet, in Deutschland gibt es ebenfalls Interesse daran.“2
Biometrische Überwachung mit algorithmischer Auswertung
Eine kritische Beschäftigung mit Überwachung findet ungefähr so lange statt, wie es diese Systeme gibt. Durch die Möglichkeit der Erhebung und Speicherung der biometrischen Daten verbunden mit algorithmischer Auswertung der Überwachungsbilder hat das Thema in den letzten Jahren ein verstärktes Maß an Aufmerksamkeit in der Öffentlichkeit erfahren.
„Biometrische Daten enthalten sensible Informationen über unseren Körper und unser individuelles Verhalten. So wird zum Beispiel unser Gesicht ausgemessen und abgespeichert, um uns in einer Menge von Menschen identifizieren zu können“.3 Es werden zwei Kategorien unterschieden: physische Eigenschaften, die sich auf den Körper beziehen wie das Gesicht, die DNA oder Fingerabdrücke und verhaltensbezogene Eigenschaften, die vom Körper ausgeführt, z.B. die Gangart, die Art des Tippens auf einer Tastatur etc. Beide Kategorien werden als biometrische Daten angesehen, eine biologische Eigenschaft einer Person wird in numerische Werte gebracht, bei denen die Abstände zwischen den Werten immer gleich sind (metrische Werte). Diese metrischen Werte können dann von Algorithmen verarbeitet werden.4 Sobald biometrische Daten z.B. durch Überwachungskameras erhoben wurden, können diese in Echtzeit oder nachträglich mit Datenbanken, in denen biometrische Daten von „Zielpersonen“ gespeichert sind, algorithmenbasiert abgeglichen werden.
Eines der Ziele ist dabei das Herausfiltern einzelner Personen aus einer Menge, um zu identifizieren, ob eine gesuchte Person sich in der Menge aufgehalten hat, oder aber um zu prüfen, um welche Person es sich bei einer bestimmten Person in der Menge handelt, oder aber um ein Bewegungsprofil einer Person zu erstellen.5
Staatliche Überwachung mit algorithmischer Auswertung
Seit 2003 speichert die erste biometrische Datenbank in Europa „Eurodac“ Fingerabdrücke. Biometrische Gesichtserkennung wurde in Deutschland erstmalig im größeren Ausmaß im Rahmen der G20 Proteste in Hamburg durch staatliche Repressionsbehörden genutzt. In der erstellten Datenbank (über 100 Terabyte, 17 davon biometrisch verarbeitet) waren Gesichter von Menschen, die sich zu der Zeit des G20 in Hamburg aufhielten, als mathematische Modelle gespeichert. Mit der verwendeten „Software Videmo360“ sollten Personen identifiziert werden und ihre Bewegungsabläufe „über mehrere Tage hinweg durch die Stadt“ nachvollzogen werden können. Diese Überwachung und algorithmische Auswertung der biometrischen Merkmale fand nicht in Echtzeit statt, sondern erst im Nachhinein.6
Ein weiteres Beispiel ist der Bahnhof Südkreuz in Berlin. Dort wurde Software zur biometrischen Überwachung in Echtzeit 2017-2018 getestet. Dafür ließen sich mehrere Hunderte von Personen freiwillig fotografieren, um sich in den folgenden Monaten durch bestimmte Bereiche des Bahnhofs zu bewegen und sich dort von Kameras aufnehmen zu lassen. Zur Auswertung wurden drei unterschiedliche Gesichtserkennungssysteme getestet. Bei diesem Test wurden nicht nur wissenschaftliche Standards (z.B. der Repräsentativität) missachtet, sondern das „Beste“ der drei Systeme zeigte lediglich eine Trefferquote von 68,5 Prozent, somit wurden dabei nur 7 von 10 Personen korrekt identifiziert.7 „Bei einer durchschnittlichen Anzahl von etwa 90.000 Reisenden pro Tag am Bahnhof Südkreuz hieße ein solcher Wert, dass täglich mindestens 600 Nutzer:innen fälschlich ins Visier der biometrischen Überwachungssysteme gerieten."7
Doch nicht nur biometrische Überwachung mit algorithmischer Auswertung anhand von Gesichtern wird in Deutschland vorangetrieben. 2018 schloss sich am Südkreuz eine weitere Testphase von sogenannten intelligenten Kameras an, die „verdächtiges“ Verhalten identifizieren sollten. Mit dem gleichen Ziel wird in Mannheim vom "Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung" in Zusammenarbeit mit dem Land Baden-Württemberg und dem Polizeipräsidium Mannheim ein System der „intelligenten“ Bild- und Videoauswertung getestet und weiterentwickelt. Das System wird ebenfalls in Hamburg am Hansaplatz getestet. Noch ist unklar wie das System genau funktioniert bzw. welche Daten zum Trainieren verwendet werden. Angeblich soll es „Schläge, Tritte und „Würgen“ erkennen. Der verwendete Algorithmus soll dabei aus den Videoaufnahmen von Bewegungssequenzen von Personen ein digitales Skelett erstellen (skelettbasierte Strichfigur), d.h. die Positionen von Körper und Gliedmaßen im Raum zueinander darstellen können. Die skelettbasierte Bewegungssequenz wird daraufhin einer algorithmischen Verhaltenserkennung unterzogen. Dabei werden meist künstliche neuronale Netze verwendet, welche mittels Maschine Learning trainiert werden. Als Trainingsdaten werden zuvor als „relevant“ eingestufte Bewegungssequenzen in das System eingeführt.
Relevantes“ Verhalten ist jenes Verhalten, welches von der zuvor gesetzten (statistischen) Norm abweicht. Wenn die Kamera und das System ein „relevantes“ Verhalten erkennen, soll ein Alarm ausgelöst werden. Erst dadurch würden die Monitore auf denen die Bilder der Videokameras übertragen werden, aktiviert. Damit soll einerseits die Privatsphäre und der Datenschutz verbessert und andererseits die Überwachung vereinfachet werden. Somit müssten die Überwacher:innen nicht die Überwachungsbilder aufmerksam verfolgen, sondern ihre Aufmerksamkeit würde erst durch den Alarm auf die Situationen und Bilder gerichtet.8, 9, 10 Der Datenschutz und die Privatsphäre sollen auch dadurch verbessert werden, dass die Aufnahmen der Überwachungskameras nur für eine kurze Zeit gespeichert werden und nur solche länger, die von einem Menschen nach der Auslösung des Alarms als „relevant“ anerkannt wurden. Sie können dann als Beweismittel in Strafverfahren oder zu Fahndungszwecken verwendet werden. „Nicht relevante“ Situationen würden nicht aufgezeichnet und biometrische Daten sollen nicht (weiter) ausgewertet werden, sondern Personen sollen z.B. durch ihre Kleidung wiedererkannt werden. Das System ist aktuell nicht fehlerfrei. Neben der besseren maschinellen Verarbeitung sollen Strichfiguren einen weiteren Vorteil haben: Diskriminierungen, die sich durch Verfahren des maschinellen Lernens reproduziert und verstärkt werden können, sollen ausgeräumt werden. Jedoch ist es unwahrscheinlich, dass durch den Einsatz der Systeme Diskriminierungen reduziert werden..8, 9, 10
Warum hebt die algorithmische Auswertung von (biometrischen) Daten im öffentlichen/physischen Raum die Überwachung auf eine weitere Ebene?
1) Die Überwachung über biometrische Daten hat die Eigenschaft, dass die Erkennungszeichen nur schwer abgelegt werden können und das Bedecken des Gesichts nicht ausreichend ist, um sich der Überwachung zu entziehen. Die Überwachung und Verfolgung von Menschen mithilfe biometrischer Merkmale funktioniert auch auf weite Distanz und so gut wie unbemerkt. Durch das Tragen von Mund-Nase-Masken zum Schutz vorm Coronavirus sind Masken in der Öffentlichkeit weit verbreitet und damit wuchs der Datenschatz von maskierten Menschen, mit dem wiederum Systeme zur Gesichtserkennung trainiert werden konnten, sodass diese zur Erkennung von maskierten Gesichtern eingesetzt werden können.4
Während es bei der Überwachung im digitalen Raum Möglichkeiten gibt die Privatsphäre zu schützen und sich dieser Überwachung weitestgehend zu entziehen (über die Anonymisierung von Verbindungsdaten durch Tor bis hin zum Verzicht auf die Endgeräte), ist dies bei der (biometrischen) Überwachung im öffentlichen/physischem Raum schwieriger. Denn die technische Überwachung im öffentlichen Raum ist von der Endgerätnutzung von Personen völlig unabhängig. Sie betrifft genauso Personen, die kein einziges Gerät (z.B. Handy/Smartphone/Laptop/Fitnesstracker) dabeihaben.
Zwar reichte es bei den am Bahnhof Südkreuz verwendeten Systemen aktuell aus, das Gesicht um 15° von der Kamera abzuwenden, doch werden sich diese Kameras weiter entwickeln. Darüber hinaus wurde Kleidung entworfen, mit denen sich geschützt werden können soll, dennoch können Menschen generell wenig aktiv dazu beitragen ihre Privatsphäre zu schützen, sondern sind davon abhängig wie gut die Personen und Systeme, die mit den gesammelten Daten umgehen, diese schützen.
2) Wenn ein Verhalten algorithmisch ausgewertet wird und in einen Risikoscore umgewandelt wird, z.B. wenn das Verhalten „schnelle Bewegungen auf Brust-Kopfhöhe mit den Armen ausführen“ als verdächtiges Verhalten (hoher Risikoscore) eingestuft wird und einen Alarm auslöst, dann werden aus subjektiven Daten (Verhalten ist interpretierbar) scheinbar objektive Zahlen (ein Alarm ist ausgelöst, dem nachgegangen wird). Die Menschen hinter der Kamera reagieren dabei auf den Risikoscore, als wenn es sich um einen objektiven Wert handeln würde und könnten dabei vergessen, dass es sich um eine statistische Einteilung handelt, die zuvor (willkürlich) festgelegt wurde. Durch diese Überwachung wird der Mensch in seiner persönlichen Freiheit beschränkt Verhaltensweisen an den Tag zu legen, die vielleicht nicht als „typisch“ im Sinne der statischen eingespeisten Norm ins System gelten.
3) Diskriminierungen können entstehen. Die Ursachen algorithmischer Diskriminierung sind vielfältig. Eine Ursache liegt unter anderem in den Trainingsdaten mit der das algorithmische System trainiert wurde. So werden Systeme zur Gesichtserkennung häufig mit überproportional mehr Bildern von männlichen, hellhäutigen Gesichtern trainiert. Dies führt zu einer statistisch signifikanten höheren Falscherkennungsrate bei allen Gesichtern, die nicht diesen Kategorien entsprechen. Zudem würden marginalisierte Gruppen, die sich in Bereichen aufhalten, die häufig von Überwachung betroffen sind, wie Obdachlose, noch stärker diskriminiert werden, denn sie könnten häufiger von Kontrollen betroffen sein.
4) Die Anonymität im öffentlichen Raum, das Gefühl nicht beobachtet zu werden, wird außer Kraft gesetzt. Durch die algorithmische Überwachung im öffentlichen Raum kommt es zu einer Einschränkung von Freiheitsrechten. Es besteht immer die Möglichkeit wie in einem Panoptikum vollständig überwacht zu werden, sich aber nie sicher zu sein, ob eine Überwachung gerade stattfindet oder nicht. Allein die gefühlte Überwachung kann zu einer Selbsteinschränkung und zu einem abgeänderten Verhalten führen und das Verhalten präventiv (im vorauseilenden Gehorsam) in Richtung „unauffällig“ und Konformität beeinflussen (als „Chilling Effect“; Abschreckungseffekt bezeichnet). Menschen verhalten sich bei einer gefühlten Überwachung teilweise so, als ob sie tatsächlich überwacht werden würden. Es kann Menschen davon abhalten sich zu versammeln, Demonstrationen beizuwohnen, und kann dadurch die freie Meinungsäußerung einschränken. Es kann Menschen davon abhalten Orte zu besuchen, die in Zusammenhang mit dem religiösen oder politischen Background einer Person oder deren sexuellen Orientierungen gebracht wird.5
5) Das Potenzial für eine weitere Einschränkung von Persönlichkeitsrechten ist durch Gesichtserkennung besonders hoch. Sobald es ein Interesse für die Überwachung von bestimmten Personen oder Personengruppen gibt, werden Personen als „Extremist:in“ oder „Terrorist:in“ klassifiziert, um mehr Überwachungsbefugnisse zu erhalten, dies ist ebenso für die biometrische Überwachung zu erwarten.4
Die Regierung Argentiniens unter dem rechtsradikalen Präsidenten Javier Milei hat gedroht per Gesichtserkennung Demonstrant:innen zu identifizieren, die an den Protesten gegen die Politik Argentiniens teilnehmen und ihnen gegebenenfalls Sozialleistungen zu streichen.11 Selbst wenn diese Drohung nicht in die Tat umgesetzt werden würde, ist eine Wirkung und Abschreckung zu erwarten.
6) Zudem ist die Einschränkung von Rechten und die Verfolgung von Personen durch algorithmische Auswertung von der Politik/Gesetzgebung abhängig, entscheidend ist dabei nicht eine moralische Komponente, sondern eine Nutzbarkeit der Daten. Sind Daten gesammelt, dann kann es durch Gesetzesänderungen oder Änderungen in der Regierung etc. jederzeit dazu kommen, dass sie auch für andere Zwecke verwendet werden als ursprünglich festgelegt und Menschen Jahre später im Nachhinein verfolgt werden.
7) Es gibt ein hohes Missbrauchspotential. Privat können Videoausschnitte von Livestream-Kameras mit Amazon Recognition ausgewertet werden, dies ermöglicht es technikaffinen Personen Tools zu entwickeln, bei dem sie benachrichtigt werden, wenn sich eine Zielperson in der von dem Livestream aufgezeichneten Umgebung aufhält. Dies hebt Missbrauch wie Stalking auf eine neue Ebene.4
Wie geht es weiter? AI-Act als Opener für zunehmende Überwachung
Seit vielen Jahren setzten sich Gruppen, Organisationen und Verbände mit Technologien, algorithmischer Auswertung und/oder (biometrischer) Überwachung auseinander (u.a. gesichtserkennung-stoppen.de, CCC e.V., Digitalcourage e.V., Gesellschaft für Informatik, AW AlgorithmWatch gGmbH, capulcu.blackblogs.org, ReclaimYourFace). Einige davon treten für ein Verbot bzw. eine starke Regulierung dieser Technologien ein.
Regulierungen wurden im Rahmen des AI-Acts auf europäischer Ebene verhandelt. Der AI-Act dient als Opener für die europaweite Etablierung der automatischen Gesichtserkennung.1 So sei es den Mitgliedsstaaten erlaubt in bestimmten Fällen (z.B. Abwehr von Terroranschlägen) Überwachungsvideos in Echtzeit mit Gesichtsdatenbanken abzugleichen, um Personen aufzuspüren. Notwendig sind dafür Datenbanken mit biometrischen Fotos, wie sie im Reisepass verpflichtend sind. Selbst wenn die Echtzeiterkennung stark eingeschränkt ist, so erfährt die nachträgliche (zeitversetzte) Erkennung von Gesichtern geringere Einschränkungen.
Dadurch, dass das Gesetz automatisierte Gesichtserkennung für bestimmte Fälle erlaubt, ergibt sich ein Einfallstor für die Etablierung der flächendeckenden Gesichtserkennung von Polizei und Geheimdiensten. Denn eine Regulierung bedeutet gleichzeitig eine Legitimierung der Systeme und die Regulierungen könnten immer weiter aufweichen.4 Selbst, wenn die Mitgliedstaaten der EU strengere Gesetze bezüglich der biometrischen Identifizierung erlassen würden, wird sich an der zunehmenden Überwachung im öffentlichen Raum vermutlich wenig ändern.
Die technischen Möglichkeiten steigern sich rasant, die Technologie wird immer preiswerter, die gesellschaftliche Akzeptanz für die Verfolgung von Menschen nimmt zu. Es ist anzunehmen, dass nicht nur die Dichte an privaten und staatlichen Kameras im öffentlichen Raum in den nächsten Jahren zunehmen wird, sondern ebenso die technischen Möglichkeiten und damit deren Anwendung von biometrischer Identifizierung, Überwachung und Verfolgung.
Die gesellschaftlichen Auswirkungen werden die, die von Sciencefiction als Horrorszenarien an die Wand gemalt wurden, vermutlich in den nächsten Jahren übertreffen. Und das betrifft nur die Technologie und die Entwicklungen, die uns bekannt sind. Die Auswirkungen der Technologien, die abseits der Öffentlichkeit entwickelt werden, stehen auf einem anderen Blatt.
- 1a1b
Reuter, Markus (2023) Das Nummernschild im Gesicht kommt. https://netzpolitik.org/2023/ki-verordnung-das-nummernschild-im-gesicht…
- 2a2b
notrace.how
- 3
Reclaim your face. Was ist das? Biometrische Daten. reclaimyourface.eu/de/
- 4a4b4c4d4e
Houwing, Lotte (2022). Reclaim your Face and the Streets. Why Facial Recognition, and Other Biometric Surveillance Technology in Public Spaces, Should be Banned. In: Sven Quadflieg/ Klaus Neuburg/ Simon Nestler (Eds.), (Dis)Obedience in Digital Societies (318-341). Bielefeld: transcript Verlag. https://doi.org/10.14361/9783839457634-013
- 5a5b
Sombetzki, Pia (2023). Biometrische Überwachung. Wie biometrische Erkennungssysteme Grundrechte beschneiden können. Digital Autonomy Hub. Policy Brief #9.
- 6
Bröckling, Marie, 2019 Gerichtsurteil zu Gesichtserkennung: Datenschützer scheitert an Löschung biometrischer G20-Datenbank https://netzpolitik.org/2019/datenschuetzer-scheitert-an-loeschung-biom…
- 7a7b
- 8a8b
https://posteo.de/news/polizei-hamburg-plant-intelligente-video%C3%BCbe…
- 9a9b
https://media.ccc.de/v/37v3-lightningzalks-57999-ki-berwachung-auf-dem-…
- 10a10b
http://www.swraktuell/badenwürtemberg/mannheim/videoueberwachung-kamera…
- 11
Reuter, Markus (2023) Argentiniens rechter Präsident will Demonstrierenden Sozialleistungen streichen. https://netzpolitik.org/2023/gesichtserkennung-argentiniens-rechter-pra…