{"id":21732,"date":"2024-04-08T19:03:17","date_gmt":"2024-04-08T19:03:17","guid":{"rendered":"https:\/\/www.cilip.de\/?p=21732"},"modified":"2024-04-08T19:03:17","modified_gmt":"2024-04-08T19:03:17","slug":"biometrische-gesichtserkennung-technologischer-solutionismus-fuer-mehr-sicherheit","status":"publish","type":"post","link":"https:\/\/wp-dev.daten.cool\/?p=21732","title":{"rendered":"Biometrische Gesichtserkennung &#8211; Technologischer Solutionismus f\u00fcr mehr \u201eSicherheit\u201c"},"content":{"rendered":"<h3>von Jens H\u00e4lterlein<\/h3>\n<p><strong>Der polizeiliche Einsatz von biometrischer Gesichtserkennung (BG) ist eine der umstrittensten Anwendungen K\u00fcnstlicher Intelligenz (KI). Im Kern geht es darum, ob dem Sicherheitsversprechen der Technologie oder der von ihr ausgehenden Gefahr der Einschr\u00e4nkung von Grund- und B\u00fcrgerrechten eine gr\u00f6\u00dfere Bedeutung beigemessen wird. Die Annahme einer hohen Leistungsf\u00e4higkeit der eingesetzten Systeme muss relativiert werden \u2013 und damit auch das Sicherheitsversprechen. Zudem hat der Einsatz von BG diskriminierende Effekte.<\/strong><\/p>\n<p>Nachdem die Europ\u00e4ische Kommission 2021 einen ersten Vorschlag f\u00fcr eine Regulierung von KI-Anwendung auf EU-Ebene vorgelegt hatte (Artificial Intelligence Act),<a href=\"#_ftn1\" name=\"_ftnref1\">[1]<\/a> kam es im Zuge des Gesetzgebungsverfahren zu einer intensiven Kontroverse. Im Sommer 2023 machte das Europ\u00e4ische Parlament umfangreiche \u00c4nderungsvorschl\u00e4ge, um den Grundrechteschutz zu st\u00e4rken. Bestimmte KI-Praktiken sollten grunds\u00e4tzlich verboten werden, da sie nicht mit den in der EU geltenden Grundrechten und Werten vereinbar w\u00e4ren. Zu den genannten Praktiken geh\u00f6rt auch die biometrischer Gesichtserkennung (BG) in \u00f6ffentlichen R\u00e4umen (Art. 5). Dies entsprach der Forderung eines B\u00fcndnisses von zivilgesellschaftlichen Initiativen sowie einer Viertelmillion EU-B\u00fcrger*innen, die ihre Unterst\u00fctzung der von mehr als 80 NGOs organisierten Kampagne Ban Biometric Mass Surveillance in Europe ge\u00e4u\u00dfert hatten. In der (vorl\u00e4ufigen) Kompromissfassung vom Dezember 2023, auf die sich das Europ\u00e4ische Parlament, der Rat der Europ\u00e4ischen Union und die Europ\u00e4ische Kommission einigten, werden jedoch Ausnahmen von einem allgemeinen Verbot der Massen\u00fcberwachung definiert, bei denen Sicherheitsinteressen die Risiken der Technologie f\u00fcr Grundrechte \u00fcberwiegen w\u00fcrden: wenn der Einsatz von BG zur Echtzeit-\u00dcberwachung verwendet wird, um terroristischen Anschl\u00e4ge zu verhindern oder nach vermissten Personen zu suchen, aber auch, wenn BG eingesetzt werden soll, um im Rahmen von Strafverfahren Tatverd\u00e4chtige zu ermitteln.<a href=\"#_ftn2\" name=\"_ftnref2\">[2]<\/a><!--more--><\/p>\n<p>W\u00e4hrend zivilgesellschaftliche Akteure wie Reclaim Your Face betonen, dass diese Regulierung und insbesondere die erw\u00e4hnten Ausnahmeregelungen den Einsatz von BG legitimieren und dadurch gerade verst\u00e4rken wird und somit eine unverh\u00e4ltnism\u00e4\u00dfige Einschr\u00e4nkung von B\u00fcrgerrechten drohe, legitimieren Bef\u00fcrworter der BG deren Einsatz im \u00f6ffentlichen Raum als notwendige Ma\u00dfnahme zum Schutz der Freiheit der B\u00fcrgerinnen und B\u00fcrger. Dieses techno-wissenschaftliche Sicherheitsversprechen basiert nun ganz wesentlich auf der Annahme einer (jedenfalls mittlerweile) hohen Leistungsf\u00e4higkeit der Systeme. Im Folgenden werde ich jedoch zeigen, dass diese Annahme nicht zutrifft und dass der Einsatz von BG dar\u00fcber hinaus diskriminierende Effekte hat, die sich auch durch technische Verbesserung nicht verhindern lassen.<\/p>\n<h4>Die Leistungsf\u00e4higkeit von Gesichtserkennung<\/h4>\n<p>Urspr\u00fcnglich war die Entwicklung von Gesichtserkennungssystemen kein kommerzielles, sondern ein mathematisches Unterfangen, das insbesondere in den USA von Milit\u00e4r und Sicherheitsbeh\u00f6rden finanziert und unterst\u00fctzt wurde. Erst im Zuge des Krieges gegen den Terror verband sich mit BG auch ein kommerzielles Interesse. Nach den Terroranschl\u00e4gen vom 11. September 2001 warben die Anbieter von Gesichtserkennungssystemen schnell f\u00fcr deren Nutzen bei der Verhinderung k\u00fcnftiger Terroranschl\u00e4ge.<a href=\"#_ftn3\" name=\"_ftnref3\">[3]<\/a> Auch wird die Forschung an BG seitdem st\u00e4rker durch nationale und EU-finanzierte Programme f\u00fcr angewandte Forschung gef\u00f6rdert \u2013 und dies nicht nur mit dem Ziel der Verbrechensbek\u00e4mpfung, sondern auch zur Ankurbelung einer wachsenden Sicherheitswirtschaft unter dem Schlagwort der \u201ezivilen Sicherheit\u201c.<\/p>\n<p>In den 2000er Jahren erwies sich die Technologie jedoch noch nicht als einsatzbereit. Einige Systeme waren zwar in der Lage, Personen in kontrollierten Umgebungen zuverl\u00e4ssig zu identifizieren, wenn das Bild des Gesichts einer Person mit einem bereits vorhandenen Bild in einer Datenbank abgeglichen wurde und beide Bilder bestimmte Qualit\u00e4tsstandards erf\u00fcllten. In komplexeren Situationen, in denen kein standardisiertes Bild zum Vergleich vorlag und deshalb auf Vergleichsbilder zur\u00fcckgegriffen werden musste, die ebenfalls unter realen Bedingungen aufgenommen wurden, sank die Genauigkeitsrate der gleichen Algorithmen jedoch enorm.<a href=\"#_ftn4\" name=\"_ftnref4\">[4]<\/a> Die Versprechen der Sicherheitsindustrie erwiesen sich als v\u00f6llig \u00fcberzogen. Infolgedessen lehnten sogar die Planer der Olympischen Winterspiele 2002 in Salt Lake City (USA) den Einsatz von BG ab, und zwar auf dem H\u00f6hepunkt der Sicherheitsdebatte nach dem 11. September.<a href=\"#_ftn5\" name=\"_ftnref5\">[5]<\/a><\/p>\n<p>Die Entwicklungen im Bereich der k\u00fcnstlichen Intelligenz haben in den 2010er Jahren dazu gef\u00fchrt, dem Sicherheitsversprechen der BG neue Glaubw\u00fcrdigkeit zu vermitteln. Dies beruht vor allem auf der verst\u00e4rkten Anwendung von KI-Methoden aus den Bereichen des Deep Learning und der K\u00fcnstlichen Neuronalen Netze. Dies war lange Zeit nicht m\u00f6glich, da diese Algorithmen mit sehr gro\u00dfen Mengen an Daten trainiert und getestet werden m\u00fcssen, diese jedoch f\u00fcr den Bildabgleich nicht in ausreichender Menge und Qualit\u00e4t verf\u00fcgbar waren. Noch bis Anfang der 2010er Jahre wurde dementsprechend ein gro\u00dfer Teil der Arbeit im Bereich der Entwicklung von BG auf die Erstellung von Datenbanken, meist in k\u00fcnstlichen Umgebungen, und die anschlie\u00dfende manuelle Aufbereitung der Daten verwendet. Entwickler*innen baten beispielsweise Freiwillige oder Mitglieder ihres Labors, f\u00fcr Fotos oder Videos zu posieren. Auch arbeiteten in den USA die DARPA (Defence Advanced Research Projects Agency) und das NIST (National Institute of Standards and Technology) bei der Erstellung gro\u00dfer Datenbanken zusammen, um neue Gesichtserkennungssysteme f\u00fcr Sicherheitsbeh\u00f6rden trainieren und testen zu k\u00f6nnen.<\/p>\n<p>Heutzutage ist derlei inszenierte Unterst\u00fctzung von Beh\u00f6rden nicht mehr notwendig. Zum einen k\u00f6nnen Algorithmen trainiert und getestet werden, indem das Internet nach Bildern von Gesichtern durchforstet wird. F\u00fcr Emp\u00f6rung sorgte der Fall ClearviewAI. 2002 wurde bekannt, dass die Firma ohne Kenntnis der Betroffenen die Bilder von drei Milliarden Menschen genutzt hatte. Ihr System kam in den USA, UK und Australien zum Einsatz.<a href=\"#_ftn6\" name=\"_ftnref6\">[6]<\/a> Zum anderen haben gro\u00dfe Technologieunternehmen wie Facebook (heute META) und Amazon begonnen, ihre eigenen Gesichtserkennungssysteme zu entwickeln. Diese werden f\u00fcr das automatische \u201eFoto-Tagging\u201c in sozialen Medien oder das Entsperren von Smartphones verwendet. Die Nutzer*innen trainieren diese Systeme mit, indem sie Bilder von sich selbst und anderen zur Verf\u00fcgung stellen, bei der Identifizierung von Personen auf Bildern (\u201eTagging\u201c) helfen oder die Identit\u00e4t von automatisch getaggten Personen manuell best\u00e4tigen.<\/p>\n<p>Im Zuge dieser Entwicklung hat sich die Leistung von Gesichtserkennungsalgorithmen deutlich verbessert, zumindest im Rahmen von Evaluationsstudien wie dem Face Recognition Vendor Test (FRVT). Der FRVT wird vom NIST durchgef\u00fchrt und dient dazu, auf dem Markt verf\u00fcgbare sowie Prototypen von Gesichtserkennungsalgorithmen zu bewerten und den US-Regierungs- und Strafverfolgungsbeh\u00f6rden Informationen zur Verf\u00fcgung zu stellen, damit sie entscheiden k\u00f6nnen, wo und wie die Technologie am besten eingesetzt werden kann. Das NIST begann im Jahr 2000 mit der Bewertung und Einstufung von Gesichtserkennungsalgorithmen durch den FRVT und hat seine Bewertungskriterien als Reaktion auf technologische Innovationen in diesem Sektor kontinuierlich erweitert. Seitdem wurden insgesamt 215 Gesichtserkennungsalgorithmen evaluiert.<a href=\"#_ftn7\" name=\"_ftnref7\">[7]<\/a> Der FRVT konzentriert sich auf drei Evaluationskriterien: eine Falsch-Positiv-Rate, d. h. die Anzahl der Bilder, die als (m\u00f6gliche) \u00dcbereinstimmung klassifiziert werden, aber tats\u00e4chlich verschiedene Personen zeigen; eine Falsch-Negativ-Rate, d. h. die Anzahl der Bilder, die als zu verschiedenen Personen geh\u00f6rig eingestuft werden, aber tats\u00e4chlich dieselbe Person zeigen; und die Selektivit\u00e4t, die bewertet, wie viele m\u00f6gliche \u00dcbereinstimmungen ein Algorithmus oberhalb eines vorher festgelegten Schwellenwerts liefert.<a href=\"#_ftn8\" name=\"_ftnref8\">[8]<\/a> Im Jahr 2010 erreichte der beste Algorithmus eine Trefferquote von 92 Prozent beim Identifizieren von Personen auf Fahndungsfotos, die mit in einer Datenbank von 1,6 Millionen Bildern abgeglichen werden mussten. Im Jahr 2018 stellte das NIST massive Fortschritte fest, die mit dem Einsatz von K\u00fcnstlichen Neuronalen Netzen erkl\u00e4rt werden. Die besten Algorithmen k\u00f6nnen nun Personen anhand eines unter realen Bedingungen aufgenommenen Profilbildes identifizieren, indem sie es mit einer Frontalansicht aus der Datenbank abgleichen und zwar ungef\u00e4hr so genau, wie die besten Algorithmen von vor einem Jahrzehnt beim Abgleich von zwei Frontalbildern.<a href=\"#_ftn9\" name=\"_ftnref9\">[9]<\/a><\/p>\n<h4>Erkenntnisse aus der praktischen Anwendung<\/h4>\n<p>Allerdings deuten aktuelle unabh\u00e4ngige Evaluationen des polizeilichen Einsatzes von BG darauf hin, dass sich au\u00dferhalb des Labors nicht viel ge\u00e4ndert hat. Als die Londoner Metropolitan Police zwischen 2016 und 2019 den neuesten Stand der Technik bei der Identifizierung von Einzelpersonen erprobte, beauftragte sie ein Team der University of Essex mit einer unabh\u00e4ngigen Studie. Im Bericht des Teams hei\u00dft es, dass die verwendete Technologie in einem der Versuche 42 Passant*innen als \u201eTreffer\u201c markierte, d.\u00a0h. als in einer polizeilichen Datenbank von Verd\u00e4chtigen oder gesuchten Straft\u00e4ter*innen erfasst. 16 dieser Treffer wurden von den Beamt*innen im Kontrollraum als nicht glaubw\u00fcrdig abgewiesen. Unter den am Ende tats\u00e4chlich kontrollierten 22 Personen waren nur acht korrekte Treffer.<a href=\"#_ftn10\" name=\"_ftnref10\">[10]<\/a> Von der Polizei wurde diese Falsch-Positiv-Rate jedoch als \u201ewinzig\u201c bezeichnet, angesichts des Umstands, dass viele Tausende von Gesichtern gescannt wurden.<a href=\"#_ftn11\" name=\"_ftnref11\">[11]<\/a><\/p>\n<p>Als die deutsche Bundespolizei zwischen 2017 und 2018 drei kommerziell erh\u00e4ltliche Gesichtserkennungssysteme in einem Versuch am Bahnhof Berlin S\u00fcdkreuz testete, wurde im Vorfeld nicht festgelegt, was ein akzeptables oder gar ein gutes Testergebnis sein w\u00fcrde. Laut offiziellem Abschlussbericht haben die Systeme die Teilnehmer*innen mit einer Genauigkeit von 80% identifiziert und wurden somit als einsatzf\u00e4hig bezeichnet.<a href=\"#_ftn12\" name=\"_ftnref12\">[12]<\/a> Diese Behauptung stie\u00df jedoch auf Kritik. Tats\u00e4chlich schwankten die Trefferquoten zwischen 65,8% und 12%. Lediglich die Kombination der drei verschiedenen Systeme ergab h\u00f6here Trefferquoten.<a href=\"#_ftn13\" name=\"_ftnref13\">[13]<\/a> Davon unabh\u00e4ngig w\u00fcrde aber auch eine Genauigkeitsrate von 80% bei t\u00e4glich mehreren tausend gescannten Gesichtern eine Zahl von falsch-positiven Treffern bedeuten, die kaum tragbar w\u00e4re.<\/p>\n<p>Neben den Unterschieden bei der Bewertung von Testergebnissen zeigen diese Beispiele, dass die Genauigkeit der Technologie je nach Anwendung und Kontext variiert. So l\u00e4sst sich aus dem Umstand, dass die BG in einem Smartphone trotz Ver\u00e4nderungen im Erscheinungsbild der Benutzer*innen zuverl\u00e4ssig funktioniert, keineswegs schlie\u00dfen, dass bei Anwendung auf Bilder, die \u201ein freier Wildbahn\u201c aufgenommen wurden, und beim Abgleich mit gro\u00dfen Datenbanken die gleiche Leistung erzielt wird.<\/p>\n<p>Bereits sehr fr\u00fch wurde von kritischen \u00dcberwachungsforscher*innen wie David Lyon<a href=\"#_ftn14\" name=\"_ftnref14\">[14]<\/a> darauf hingewiesen, dass wir bei der Analyse und Kritik von \u00dcberwachungstechnologien darauf achten m\u00fcssen, die Fallstricke des technologischen Determinismus zu vermeiden, der die gesellschaftlichen Effekte einer Technologie rein aus ihrer (mangelnden) Funktionalit\u00e4t ableiten w\u00fcrde. Selbst wenn viele Arbeitsschritte bei der Identifizierung von Gesichtern automatisiert werden, ist es nicht die Technologie an sich, die sich auf die Gesellschaft auswirkt, sondern das Zusammenspiel von Menschen und dieser Technologie. Ein wichtiger Aspekt dieses Zusammenspiels ist die Kalibrierung eines Systems. Da die \u00dcbereinstimmung zwischen zwei Bildern nie absolut, sondern immer nur mit einem gewissen \u00c4hnlichkeitsgrad bestimmbar ist, kann ein System immer nur eine Wahrscheinlichkeit generieren, die angibt, wie sehr das erfasste Gesicht einer Person mit einem einzigen Foto (Verifikation) oder jedem einzelnen der Fotos in einer Datenbank (Identifikation) \u00fcbereinstimmt. Wird Gesichtserkennung zu Identifizierungszwecken eingesetzt, erstellt das System in der Regel eine Liste potenzieller \u00dcbereinstimmungen, die ein Mensch hinter dem Bildschirm dann durchsehen muss, um eine Entscheidung zu treffen \u2013 zum Beispiel, um Polizeibeamt*innen vor Ort zu empfehlen, eine Person zu \u00fcberpr\u00fcfen oder zu verfolgen. Um eine \u00fcberschaubare Anzahl m\u00f6glicher \u00dcbereinstimmungen zu generieren, muss willk\u00fcrlich ein prozentualer Schwellenwert f\u00fcr die \u00dcbereinstimmungswahrscheinlichkeit \u00a0\u00a0festlegt werden, anhand derer das System Bilder zur weiteren \u00dcberpr\u00fcfung vorselektiert. Dies wirkt sich jedoch auch auf die Genauigkeit des Systems aus: Wird der Schwellenwert niedrig angesetzt, werden mehr Bilder als potenzielle \u00dcbereinstimmung eingestuft, die unterschiedliche Personen zeigen (falsch positive Ergebnisse); wird der Schwellenwert hoch angesetzt, werden mehr tats\u00e4chliche \u00dcbereinstimmungen vom System ignoriert (falsch negative Ergebnisse). Je nach Kontext oder Anwendungsfall w\u00e4hlen die Betreiber*innen des Systems einen Schwellenwert, den sie f\u00fcr angemessen halten.<a href=\"#_ftn15\" name=\"_ftnref15\">[15]<\/a><\/p>\n<p>Im n\u00e4chsten Schritt muss die Ausgabe des Systems bewertet werden. An diesem Punkt wirkt sich die Kalibrierung auch auf das menschliche Urteilsverm\u00f6gen aus. Empirische Untersuchungen \u00fcber den Einsatz von Systemen der algorithmischen Entscheidungsfindung haben ergeben, dass die Nutzer*innen die Ergebnisse der Systeme kaum hinterfragen und sogar dazu neigen, sie als unfehlbar anzusehen \u2013 der sog. \u201eautomation bias\u201c.<a href=\"#_ftn16\" name=\"_ftnref16\">[16]<\/a> Diese Voreingenommenheit f\u00fchrt h\u00e4ufig zu zwei Arten von Fehlern: Bei einem \u201ecommission error\u201c folgen die Nutzer*innen einer fehlerhaften Empfehlung eines Systems. \u00dcbertragen auf die BG w\u00fcrde dies bedeuten, dass sie falsch-positive Meldungen als richtig-positive Meldungen betrachten und entsprechende Ma\u00dfnahmen ergreifen. Im Falle des \u201eomission error\u201c \u00fcbersehen die Nutzer*innen kritische Situationen, wenn diese vom System nicht erkannt werden. \u00dcbertragen auf die BG w\u00fcrde dies bedeuten, dass sie eine Person von Interesse (z. B. einen gesuchten Straftatverd\u00e4chtigen) vor der Kamera nicht wahrnehmen, sondern sich nur auf die auf dem Bildschirm aufgelisteten m\u00f6glichen Treffer konzentrieren. Je nach Kalibrierung des Systems ist es wahrscheinlicher, dass entweder der erste oder der zweite Fehler auftritt. Es ist also nicht die Technologie selbst, sondern das Zusammenspiel zwischen Mensch und System, das auf komplexe Weise richtige oder falsche Entscheidungen hervorbringt.<a href=\"#_ftn17\" name=\"_ftnref17\">[17]<\/a><\/p>\n<h4><strong>Diskriminierende Effekte und technische L\u00f6sungen<\/strong><\/h4>\n<p>Die \u00f6ffentliche Kritik am polizeilichen Einsatz von Gesichtserkennung konzentrierte sich zun\u00e4chst auf mangelnden Datenschutz und die Verletzung des Rechts auf Privatsph\u00e4re. Seit einigen Jahren hat sich das Augenmerk der kritischen Auseinandersetzungen jedoch auf die Frage verlagert, wie durch deren Einsatz Racial Profiling und andere diskriminierende Praktiken reproduziert oder sogar verst\u00e4rkt werden. Bereits der FRVT hatte gezeigt, dass die Fehlerkennungsraten der Algorithmen bei Gesichtern, die als weiblich, afroamerikanisch oder asiatisch klassifiziert wurden, deutlich h\u00f6her lagen, wobei m\u00f6gliche \u00dcberschneidungen dieser Kategorien den h\u00f6chsten Prozentsatz an falsch-positiven und falsch-negativen Ergebnissen aufwiesen.<a href=\"#_ftn18\" name=\"_ftnref18\">[18]<\/a> Der Grund hierf\u00fcr war schlicht, dass in den zugrundeliegenden Datens\u00e4tzen \u201ewei\u00dfe m\u00e4nnliche Gesichter\u201c deutlich \u00fcberrepr\u00e4sentiert waren und der Algorithmus daher besser darin war, diese zu erkennen.<\/p>\n<p>Bedenken hinsichtlich diskriminierender Effekte spielen in der Forderung nach einem Moratorium f\u00fcr den Einsatz von BG durch staatliche Beh\u00f6rden, insbesondere in \u00f6ffentlichen R\u00e4umen, eine zentrale Rolle. Gem\u00e4\u00dfigtere Stimmen fordern, dass der Einsatz von BG durch Strafverfolgungsbeh\u00f6rden nur dann legal sein sollte, wenn eine spezifisch geschulte Person eingebunden wird, die die Ergebnisse des Systems bewertet, bevor sie zur Entscheidungsfindung verwendet werden, was dem in der EU-Datenschutzgrundverordnung verankerten Grundsatz der menschlichen Letztentscheidung bei automatisierten Entscheidungen entspricht (Art. 22 DSGVO). Diese Kritiken und Forderungen sind nicht ohne Wirkung, wie u.\u00a0a. das zu Beginn diskutierte KI-Gesetz der EU zeigt. Im Jahr 2019 k\u00fcndigten mehrere Fachzeitschriften und eine gro\u00dfe Konferenz zus\u00e4tzliche Ethikpr\u00fcfungen f\u00fcr Studien zu den wissenschaftlichen Grundlagen von BG an. 2020 erkl\u00e4rte Arvind Krishna, CEO von IBM, dass das Unternehmen keine f\u00fcr polizeiliche Zwecke einsetzbare Gesichtserkennung mehr anbieten werde. Im selben Jahr k\u00fcndigte Amazon ein einj\u00e4hriges Moratorium f\u00fcr die polizeiliche Nutzung seiner Software \u201eRekognition\u201c an. 2021 haben mehrere US-St\u00e4dte und der Bundesstaat Kalifornien die Nutzung der Technologie f\u00fcr Strafverfolgungszwecke verboten.<\/p>\n<h4><strong>Gesetzliche Regulierung oder ethische Selbstverpflichtung<\/strong><\/h4>\n<p>W\u00e4hrend ein umfassendes und dauerhaftes Verbot des polizeilichen Einsatzes von Gesichtserkennung also weder in den USA noch in Europa wahrscheinlich ist, l\u00e4sst sich derzeit ein Trend zu freiwilligen Verhaltenskodizes und ethischen Leitlinien beobachten. Die Vertrauensw\u00fcrdigkeit von BG soll insbesondere durch die Implementierung ethischer Prinzipien in technologische Innovationsprozesse sichergestellt werden, etwa indem repr\u00e4sentativere und inklusivere Trainingsdatens\u00e4tze erstellt und genutzt werden. Was bei solchen Vorstellungen von technischen L\u00f6sungen f\u00fcr technische Probleme jedoch au\u00dfer Acht bleibt, ist die Tatsache, dass die Beseitigung von Verzerrungen in den Daten nicht automatisch die Beseitigung von Diskriminierung in der Anwendungspraxis bedeutet. Im Rahmen der Erstellung ausgewogener Datens\u00e4tze m\u00fcssen Bilder von Gesichtern zun\u00e4chst manuell kategorisiert werden, um f\u00fcr das Training der Algorithmen verwendet werden zu k\u00f6nnen. Die Kategorisierung von Bildern bedeutet aber, dass zwischen verschiedenen, vorab definierten Kategorien gew\u00e4hlt werden muss. \u201eGeschlecht\u201c und \u201eRasse\u201c werden dann als biologische Merkmale behandelt, auch wenn sie mittlerweile als soziale Konstrukte mindestens umstritten sind. Anstatt Ausgangspunkt f\u00fcr eine weniger vorurteilsbehaftete und diskriminierende Datenpraxis zu sein, ist die manuelle Kategorisierung von Bildern daher Ausgangspunkt der Einschreibung sozialer Konstrukte in technische Artefakte \u2013 unabh\u00e4ngig davon, wie reflexiv und ethisch motiviert diese Kategorisierung durchgef\u00fchrt wird.<\/p>\n<p>Und selbst, wenn wir Bilddatenbanken erstellen k\u00f6nnten, die die unserer Gesellschaft innewohnenden Vorurteile und Diskriminierungen nicht reproduzieren, w\u00fcrde die Verwendung der mit ihnen trainierten Systeme immer noch innerhalb dieser Gesellschaft stattfinden. Um die Voreingenommenheit von Gesichtserkennungssystemen zu bek\u00e4mpfen, die mit westlichen, d.\u00a0h. vorrangig wei\u00dfen Datens\u00e4tzen trainiert wurden, begann die indische Polizei, Bilder von Bollywood-Schauspieler*innen zu verwenden, um die Algorithmen (neu) zu trainieren. Diese Algorithmen wurden dann allerdings f\u00fcr die polizeiliche \u00dcberwachung von muslimischen Minderheiten eingesetzt.<a href=\"#_ftn19\" name=\"_ftnref19\">[19]<\/a> Dieses Beispiel zeigt, dass rassistische Vorurteile und Diskriminierungsmuster nicht nur in den Daten und Algorithmen enthalten sind, sondern nat\u00fcrlich auch in den Anwendungen von Gesichtserkennung zu finden sind.<\/p>\n<p>In Anbetracht dieser Fallstricke eines technologischen Solutionismus, der behauptet, Probleme mit neuen technologischen Mitteln zu l\u00f6sen, gibt es reichlich Grund, diesem derzeit vorherrschenden Ansatz zur Bek\u00e4mpfung von Diskriminierung und anderen mit dem polizeilichen Einsatz von BG verbundenen Risiken gegen\u00fcber skeptisch zu sein. Zudem besteht das Risiko, dass der Ansatz einer ethischen Selbstverpflichtung der Hersteller die Forderung nach einer strengeren Regulierung der Technologie schw\u00e4chen w\u00fcrde, da verbindliche Rechtsnormen dadurch scheinbar obsolet werden. Die Hoffnung auf unvoreingenommene Datenpraktiken w\u00fcrde das Verbot der diskriminierenden Nutzung von Gesichtserkennung ersetzen.<\/p>\n<p>Alles in allem w\u00fcrde der Einsatz von BG also nicht ein mehr an Sicherheit bedeuten (mit dem sich ggf. ein weniger an Freiheit rechtfertigen lie\u00dfe), sondern eine Zunahme an unbegr\u00fcndeten polizeilichen Kontrollma\u00dfnahmen, die zudem ein hohes Ma\u00df an diskriminierenden Effekten zeitigen w\u00fcrden. Den Schutz der B\u00fcrger*innen kann nur ein umfangreiches Verbot der Technologie (und nicht deren Verbesserung) gew\u00e4hrleisten.<\/p>\n<h6><a href=\"#_ftnref1\" name=\"_ftn1\">[1]<\/a> \u00a0 COM (2021) 206 final v. 21.4.2021<\/h6>\n<h6><a href=\"#_ftnref2\" name=\"_ftn2\">[2]<\/a> \u00a0 Ratsdok. 5662\/24 v. 26.1.2024, s. a. unsere Kurzmeldung auf S. 109 in diesem Heft<\/h6>\n<h6><a href=\"#_ftnref3\" name=\"_ftn3\">[3]<\/a> \u00a0 Gates, K. A.: Our Biometric Future: Facial Recognition Technology and the Culture of Surveillance, New York 2011<\/h6>\n<h6><a href=\"#_ftnref4\" name=\"_ftn4\">[4]<\/a> \u00a0 Adams, A. A.; Ferryman, J. M.: The Future of Video Analytics for Surveillance and Its Ethical Implications, in: Security Journal 2015, H. 3, S. 272-289<\/h6>\n<h6><a href=\"#_ftnref5\" name=\"_ftn5\">[5]<\/a> \u00a0 Fussey, P.; Coaffee, J.: Balancing local and global security leitmotifs: Counter-terrorism and the spectacle of sporting mega-events, in: International Review for the Sociology of Sport 2012, H. 3, S. 268-285<\/h6>\n<h6><a href=\"#_ftnref6\" name=\"_ftn6\">[6]<\/a> \u00a0 Ringrose, K.; Ramjee, D.: Watch Where You Walk: Law Enforcement Surveillance and Protester Privacy, in: California Law Review 2020, H. 11<\/h6>\n<h6><a href=\"#_ftnref7\" name=\"_ftn7\">[7]<\/a> \u00a0 <a href=\"http:\/\/www.nist.gov\/programs-projects\/face-recognition-vendor-test-frvt\">www.nist.gov\/programs-projects\/face-recognition-vendor-test-frvt<\/a><\/h6>\n<h6><a href=\"#_ftnref8\" name=\"_ftn8\">[8]<\/a> \u00a0 Grother, P.; Ngan, M.; Hanaoka, K.: Ongoing Face Recognition Vendor Test (FRVT): Part 2: Identification, Gaithersburg 2018<\/h6>\n<h6><a href=\"#_ftnref9\" name=\"_ftn9\">[9]<\/a> \u00a0 Castelvecchi, D.: Beating Biometric Bias. Facial recognition is improving \u2013 but the bigger issue is how it it\u2019s used, in: Nature 2020, Nr. 7834, S. 347-349<\/h6>\n<h6><a href=\"#_ftnref10\" name=\"_ftn10\">[10]<\/a> Fussey, P.; Murray, D.: Independent Report on the London Metropolitan Police Service\u2019s Trial of Live Facial Recognition Technology, Essex 2019<\/h6>\n<h6><a href=\"#_ftnref11\" name=\"_ftn11\">[11]<\/a> Castelvecchi a.a.O. (Fn. 9)<\/h6>\n<h6><a href=\"#_ftnref12\" name=\"_ftn12\">[12]<\/a> Bundespolizeipr\u00e4sidium: Abschlussbericht des Bundespolizeipr\u00e4sidiums zur biometrischen Gesichtserkennung, Potsdam 2018<\/h6>\n<h6><a href=\"#_ftnref13\" name=\"_ftn13\">[13]<\/a> Eireiner, A. V. (2020). Imminent dystopia? Media coverage of algorithmic surveillance at Berlin-S\u00fcdkreuz. Internet Policy Review 2020, H. 1, S. 1-19<\/h6>\n<h6><a href=\"#_ftnref14\" name=\"_ftn14\">[14]<\/a> Lyon, D.: The Electronic Eye: The Rise of Surveillance Society, Minneapolis 1994<\/h6>\n<h6><a href=\"#_ftnref15\" name=\"_ftn15\">[15]<\/a> Castelvecchi a.a.O. (Fn. 9)<\/h6>\n<h6><a href=\"#_ftnref16\" name=\"_ftn16\">[16]<\/a> Skitka, L. J. u.a.: Does automation bias decision-making?, in: International Journal of Human-Computer Studies 1999, H. 5, S. 991-1006<\/h6>\n<h6><a href=\"#_ftnref17\" name=\"_ftn17\">[17]<\/a> Castelvecchi a.a.O. (Fn. 9)<\/h6>\n<h6><a href=\"#_ftnref18\" name=\"_ftn18\">[18]<\/a> Grother, P. u.a.: Facial Recognition Vendor Test: Part 3: Demographic Effects, Gaithersburg 2019<\/h6>\n<h6><a href=\"#_ftnref19\" name=\"_ftn19\">[19]<\/a> Govaerts, L.: Facial recognition technology, a new Ring of Power for the Delhi police, in: Chair in Surveillance Studies Blog v. 16.4.2022<\/h6>\n<h3>Beitragsbild: <a href=\"https:\/\/www.flickr.com\/photos\/worldeconomicforum\/39861778822\/\">WEF<\/a> (2018), <a href=\"https:\/\/creativecommons.org\/licenses\/by-nc-sa\/2.0\/\">CC BY-NC-SA 2.0 Deed<\/a>.<\/h3>\n","protected":false},"excerpt":{"rendered":"<p>von Jens H\u00e4lterlein Der polizeiliche Einsatz von biometrischer Gesichtserkennung (BG) ist eine der umstrittensten Anwendungen<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[152,138],"tags":[188,447,687,1470],"class_list":["post-21732","post","type-post","status-publish","format-standard","hentry","category-artikel","category-cilip-134","tag-ai-act","tag-diskriminierung","tag-gesichtserkennung","tag-usa"],"_links":{"self":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts\/21732","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=21732"}],"version-history":[{"count":0,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts\/21732\/revisions"}],"wp:attachment":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=21732"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=21732"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=21732"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}