{"id":20099,"date":"2020-05-05T15:50:12","date_gmt":"2020-05-05T15:50:12","guid":{"rendered":"https:\/\/www.cilip.de\/?p=20099"},"modified":"2020-05-05T15:50:12","modified_gmt":"2020-05-05T15:50:12","slug":"ein-aufhaltsamer-aufstieg-kurze-geschichte-der-automatisierten-gesichtserkennung","status":"publish","type":"post","link":"https:\/\/wp-dev.daten.cool\/?p=20099","title":{"rendered":"Ein aufhaltsamer Aufstieg:\u00a0Kurze Geschichte der automatisierten Gesichtserkennung"},"content":{"rendered":"<h3>von Roland Meyer<\/h3>\n<p><strong>In einer konzertierten Aktion zwischen staatlichen Sicherheitsbeh\u00f6rden und kommerziellen Unternehmen wurde seit den 1960er Jahren die Entwicklung der automatisierten Gesichtserkennung vorangetrieben. Die gescheiterten Versuche und die nach wie vor hohen Falscherkennungsraten haben diese Geschichte nicht aufgehalten. H\u00f6chste Zeit f\u00fcr eine politische Debatte.<\/strong><\/p>\n<p>Der Minister war zufrieden. Als Horst Seehofer im Oktober 2018 die Ergebnisse des Pilotprojekts zum Einsatz automatisierter Gesichtser\u00adkennung am Berliner Bahnhof S\u00fcdkreuz vorstellte, zeigte er sich sogar zu Scherzen aufgelegt. \u201eWenn die Politik nur 0,1 Prozent Fehler machen w\u00fcrde, dann w\u00e4ren wir gut\u201c, kommentierte er die Falscherkennungsraten der getesteten Systeme launig.<a href=\"#_ftn1\" name=\"_ftnref1\">[1]<\/a><!--more--><\/p>\n<p>Nicht nur, dass, wie der Chaos Computer Club herausfand,<a href=\"#_ftn2\" name=\"_ftnref2\">[2]<\/a> die Treffer- und Fehlerraten im Abschlussbericht der Bundespolizei wohl gesch\u00f6nt waren \u2013 auch ohne vertiefte Kenntnisse in Statistik und Informatik h\u00e4tten die Zahlen stutzig machen k\u00f6nnen. Schon mit einfacher Mittelstufenpro\u00adzent\u00adrechnung zeigt sich n\u00e4mlich, dass bereits die angegebene Fehlerquote im fl\u00e4chendeckenden Einsatz verheerende Konsequenzen h\u00e4tte. Bei rund 90.000 Passant*innen, die den Bahnhof S\u00fcdkreuz t\u00e4glich passieren, w\u00fcrde das System rund 90 Mal am Tag falschen Alarm geben. Ein Einsatz auf allen Bahnh\u00f6fen im Bundesgebiet h\u00e4tte gar, wie das Max-Planck-Institut f\u00fcr Bildungsforschung ausgerechnet hat, rund 350.000 Fehlalarme monatlich zur Folge \u2013 350.000 Menschen, die im Zweifelsfall von der Polizei gestoppt und kontrolliert w\u00fcrden. Und da die Zahl der gesuchten \u201eGef\u00e4hrder\u201c im Verh\u00e4ltnis zur Gesamtbev\u00f6lkerung verschwindend gering ausf\u00e4llt, stellt sich fast jeder Treffer des Systems als falscher Alarm heraus \u2013 mutma\u00dflich mehr als 99 Prozent.<a href=\"#_ftn3\" name=\"_ftnref3\">[3]<\/a> Anders als Ministerium und Bundespolizei die \u00d6ffentlichkeit glauben machen wollten, hatten sich die Systeme also keinesfalls \u201ein beeindruckender Weise bew\u00e4hrt\u201c.<a href=\"#_ftn4\" name=\"_ftnref4\">[4]<\/a><\/p>\n<p>Das muss schlie\u00dflich auch dem Minister ged\u00e4mmert haben. Urspr\u00fcnglich hatte Seehofer angek\u00fcndigt, noch 2020 die gesetzlichen Voraussetzungen zu schaffen, um automatisierte Geschichtserkennung an 135 Bahnh\u00f6fen und 14 Flugh\u00e4fen einsetzbar zu machen. Im aktuellen Entwurf f\u00fcr das Bundespolizeigesetz ist davon keine Rede mehr. \u00dcberraschend lie\u00df Seehofer verk\u00fcnden, es seien noch \u201eeinige Fragen\u201c in Bezug auf die Technologie und ihre gesellschaftliche Akzeptanz offengeblieben. Tats\u00e4chlich l\u00e4sst sich beobachten, dass der Einsatz automatisierter Gesichtserkennung auch in Deutschland immer kritischer diskutiert wird \u2013 auch jenseits jener Kreise, die immer schon Datenschutzbedenken angemeldet hatten.<\/p>\n<p>Meldungen wie die \u00fcber die Firma <em>Clearview<\/em>, die in riesigen Gr\u00f6\u00dfenordnungen private Bilder aus Social-Media-Netzwerken mittels Gesichts\u00aderkennung durchsuchbar macht \u2013 selbstverst\u00e4ndlich ohne die Einwilligung der Nutzer*innen \u2013, haben auch hierzulande f\u00fcr Aufsehen gesorgt. In den USA artikulieren sich inzwischen massive zivilgesellschaftliche Forderungen nach einer Regulierung, wenn nicht gar einem Verbot der Technologie, und erste St\u00e4dte \u2013 darunter die Tech-Metropole San Francisco \u2013 haben bereits einen \u201eban on facial recognition\u201c ausgesprochen. Weit handfester \u00e4u\u00dferte sich der Widerstand im vergangenen Sommer in Hong Kong, wo es die Demonstrant*innen gezielt auf die Demontage der \u00dcberwachungskameras abgesehen hatten, um der allgegenw\u00e4rtigen Gesichtserkennung zu entgehen.<\/p>\n<p>Was jedoch in der gegenw\u00e4rtigen Debatte seltsam unterbelichtet scheint, ist die Tatsache, dass automatisierte Gesichtserkennung keineswegs eine neue Technologie ist. Vielmehr hat sie eine bereits \u00fcber f\u00fcnfzigj\u00e4hrige Geschichte \u2013 eine Geschichte, die weithin unbekannt ist, die aber Schlaglichter auf die Gegenwart wirft. Diese Geschichte soll im Folgenden knapp skizziert werden.<a href=\"#_ftn5\" name=\"_ftnref5\">[5]<\/a><\/p>\n<h4>Von der Bertillonage zur \u201eVideodatenverarbeitung\u201c<\/h4>\n<p>Die ersten Versuche mit automatisierter Gesichtserkennung datieren bereits aus den 1960er Jahren. Als Pionier des Feldes kann der amerikanische Mathematiker Woody Bledsoe gelten, der um 1963 im Auftrag der CIA damit begann, den Einsatz von Computern bei der Identifizierung menschlicher Gesichter zu erforschen. Als Vorbild diente ihm das anthropometrische Signalement des franz\u00f6sischen Kriminalisten Alphonse Bertillon, ein Mess- und Beschreibungsverfahren, das in den 1880er Jahren zur Identifizierung von Wiederholungst\u00e4tern entwickelt worden war. Die vollst\u00e4ndige Automatisierung der Gesichtsvermessung gelang Bledsoe jedoch nicht \u2013 vielmehr schlug er seinen Auftraggebern ein \u201eMensch-Maschine-System\u201c mit klarer Kompetenzverteilung vor: Menschliche <em>operators<\/em> sollten zun\u00e4chst auf polizeilichen Fahndungsbildern vorgegebene Merkmalspunkte wie Augen- und Mundwinkel, Nasen- und Kinnspitze markieren. Deren digital erfasste Koordinaten konnten anschlie\u00dfend vom Computer mit den bereits zuvor erfassten Datenbest\u00e4nden abgeglichen werden. Der Computer blieb also in dieser fr\u00fchesten Versuchsanordnung noch blind und war f\u00fcr den Dateninput auf menschliche Augenpaare angewiesen.<\/p>\n<p>W\u00e4hrend Bledsoes Arbeit, den Interessen seines Auftraggebers geschuldet, im Geheimen stattfand, suchten andere Forscher die \u00d6ffentlichkeit. So bewarb die <em>Nippon Electric Company<\/em> ihre neuartige Technologie der \u201eVideodatenverarbeitung\u201c 1970 auf der Weltausstellung im japanischen Osaka mit einem ganz besonderen Spektakel namens \u201eComputer Physiognomy\u201c. Wer wollte, konnte hier sein Gesicht elektronisch erfassen lassen und erhielt als Andenken nicht nur ein ausgedrucktes Computerportr\u00e4t, sondern auch eine spezielle Form der automatisierten Charakterdeutung. Auf Basis messbarer \u00c4hnlichkeiten sollte der Rechner n\u00e4mlich jedes erfasste Gesicht einem \u201eTypus\u201c zuordnen, der von jeweils einem von insgesamt sieben Prominentengesichtern repr\u00e4sentiert wurde \u2013 von Winston Churchill \u00fcber John F. Kennedy bis zu Marylin Monroe. Doch nach welchen Kriterien die Zuordnung erfolgte, erfuhr das Publikum nicht. Gesichtserkennung, das gilt bis heute, pr\u00e4sentiert sich in der Regel als <em>black box<\/em>, deren Funktionsweise strukturell im Verborgenen bleibt \u2013 der \u00d6ffentlichkeit gegen\u00fcber ebenso wie nicht selten sogar jenen, die sie einsetzen: In diesem Fall mussten die beteiligten Wissenschaftler erst in der nachtr\u00e4glichen Datenanalyse erfahren, dass die Ergebnisse ihres fehleranf\u00e4lligen Programms h\u00e4ufig reine Zufallsprodukte waren.<\/p>\n<p>Das Experiment von Osaka erwies sich dennoch als folgenreich. Denn auf Basis der hier erhobenen Gesichtsdaten entwickelte der junge japanische Informatiker Takeo Kanade in seiner Dissertation von 1973 das erste Verfahren, das ohne menschliche Eingabehilfen auskam. Auch Kanade setzte auf die digitale Vermessung des Gesichts, doch Brillen, B\u00e4rte und Falten im Gesicht verwirrten sein System und machten die Lokalisierung von Merkmalspunkten wie Augen- oder Mundwinkeln schwierig. Als Testbilder verwendete er daher ausschlie\u00dflich solche junger, bart- wie brillenloser, zudem \u00fcberwiegend m\u00e4nnlicher japanischer Gesichter, doch selbst die wurden nur in rund dreiviertel aller F\u00e4lle erkannt. Gesichtserkennung, auch das gilt bis heute, etabliert stets Standards der Erkennbarkeit, die nicht von jedem Gesicht gleicherma\u00dfen erf\u00fcllt werden.<\/p>\n<p>Im Laufe der 1970er Jahre begann man vielerorts, an Verfahren der automatisierten Gesichtserkennung zu arbeiten \u2013 unter anderem auch am Bundeskriminalamt in Wiesbaden. Als Ziel schwebte BKA-Chef Horst Herold ein \u201ePersonenerkennungssystem\u201c vor, das alles objektiv messbar und vergleichbar machen sollte, was bislang der menschlichen Wahrnehmung vorbehalten gewesen war. In Zukunft k\u00f6nn\u00adten dann mittels Videotechnik, Datenverarbeitung und anderer Medien \u201ealle Merkmale der Individualit\u00e4t\u201c, einschlie\u00dflich Mimik, Gang- und Stimmmustern, automatisch erfasst und ausgewertet werden. Doch wie andere Technologien, deren Entwicklung das BKA im Kampf gegen den RAF-Terrorismus mit gro\u00dfem Aufwand betrieb, kam die elektronische Personenerkennung nie \u00fcber den Stand der Grundlagenforschung hinaus.<\/p>\n<h4>Fiction &amp; Science<\/h4>\n<p>Auch international stagnierte in den 1980er Jahren die Forschung \u2013 zu viele Probleme schienen ungel\u00f6st, als dass in absehbarer Zeit mit einem praxistauglichen Verfahren zu rechnen gewesen w\u00e4re. Als einsatzf\u00e4hig erwies sich die Technologie allein im Reich der Fiktion. Insbesondere die Filme der James-Bond-Reihe f\u00fchrten seit den 1980er Jahren regelm\u00e4\u00dfig immer elaboriertere Formen der elektronischen Identifizierung vor. In <em>A View to a Kill<\/em> (1986) ist es ausgerechnet der Schurke Zorkin, der eine in seinem Arbeitszimmer versteckte Kamera nutzt, um den inkognito auftretenden Bond zu identifizieren. W\u00e4hrend Zorkin sich noch mit seinem verd\u00e4chtigen Gast unterh\u00e4lt, l\u00e4sst er heimlich dessen digitales \u00dcberwachungsbild von seinem PC auswerten, der ihm schlie\u00dflich verr\u00e4t, mit wem er es in Wahrheit zu tun hat.<\/p>\n<p>Den Einfluss der filmischen Fiktion auf die Realit\u00e4t sollte man nicht untersch\u00e4tzen. So ist \u00fcberliefert, dass die CIA regelm\u00e4\u00dfig, wenn einer neuer Bond in die Kinos kam, die dort vorgef\u00fchrten Gadgets durch ihre technische Abteilung auf ihre Realisierbarkeit hin pr\u00fcfen lie\u00df. Vor allem aber pr\u00e4gten die Hollywoodfantasien der perfekten technischen \u00dcberwachung, wie sie seit den 1990er Jahren entstanden, popul\u00e4re Vorstellungen technischer Machbarkeit. Filme wie etwa <em>Enemy of the State<\/em> (1998) zeichneten zwar ein d\u00fcsteres Bild der Gefahren totaler \u00dcberwachung, doch die konkreten Schwachstellen der Technik sparten sie aus. Im Reich der Fiktion funktionierte die automatisierte Gesichtserkennung stets fehlerfrei.<\/p>\n<p>Doch nicht nur Hollywood-Drehbuchautoren hielten in den sp\u00e4ten 1990er Jahren automatisierte Gesichtserkennung f\u00fcr unmittelbar einsatzf\u00e4hig. Tats\u00e4chlich hatte die Technologie mittlerweile die Entwicklungslabore verlassen. Der technische Durchbruch war 1991 gelungen, mit dem sogenannten <em>Eigenface<\/em>-Algorithmus der MIT-Forscher Matthew Turk und Alex Pentland. Anders als fr\u00fchere merkmalsbasierte Verfahren setzten Turk und Pentland nicht auf die Vermessung der Anatomie des einzelnen Gesichts, sondern auf die statistische Auswertung von Helligkeitsverteilungen in gro\u00dfen Bilderdatenmengen. Dieser \u201eholistische\u201c Ansatz, urspr\u00fcnglich im Auftrag eines Unternehmens entwickelt, das zur Messung von Einschaltquoten elektronisch erfassen wollte, wer gerade vor dem Fernseher sa\u00df, erwies sich als so erfolgreich, dass er in den 1990er Jahren einen wahren Forschungsboom ausl\u00f6ste.<\/p>\n<p>In rascher Folge erschienen nun immer neue Erfolgsmeldungen aus den Computerlaboren amerikanischer Spitzenuniversit\u00e4ten. Das Interesse auf Seiten von Milit\u00e4r und Sicherheitsbeh\u00f6rden war entsprechend gro\u00df. Doch da jedes Entwicklungsteam seine eigene Bilddatenbank verwendete, lie\u00dfen sich die Erkennungsraten nicht vergleichen. Auf diesen Mangel reagierte ab 1993 das FERET-Programm des US-Vertei\u00addigungs\u00administeriums. Mit dem Aufbau einer einheitlichen Bilddatenbank sollte nun erstmals ein standardisierter Leistungsvergleich m\u00f6glich werden. Dieser fand zwischen 1994 und 1996 in drei Phasen statt, bei denen jeweils die vielversprechendsten Teams auf Basis gemeinsamer Testaufgaben und Erfolgskriterien miteinander konkurrierten. Zwar stellte sich heraus, dass wechselnde Lichtverh\u00e4ltnisse, zeitliche Abst\u00e4nde zwischen den Aufnahmen und anderes mehr die Systeme unver\u00e4ndert vor gro\u00dfe Herausforderungen stellten, doch allein die im Jahresrhythmus messbaren Fortschritte best\u00e4tigten die Beteiligten im Glauben an die bevorstehende Marktreife. Und so begann mit den FERET-Tests die Kommerzialisierung der Technologie, nutzten doch manche der beteiligten Forscher*innen die staatlich beglaubigten Testergebnisse, um Risikokapital f\u00fcr ihre neugegr\u00fcndeten Start-up-Firmen einzuwerben, die fortan Casinos, Flugh\u00e4fen, F\u00fchrerscheinstellen und Polizeibeh\u00f6rden mit Gesichtserkennungssoftware ausstatten sollten.<\/p>\n<p>Ein \u00f6ffentlichkeitswirksamer Coup gelang im Januar 2001 der Firma <em>Viisage<\/em>, die sich die Rechte am <em>Eigenface<\/em>-Algorithmus gesichert hatte: Mit ihrer Software wurden die Gesichter von \u00fcber 70.000 Besucher*innen des Super-Bowl-Finales in Tampa (Florida) automatisch erfasst und mit polizeilichen Fahndungslisten abgeglichen. Obwohl keine Verhaftung erfolgte und unklar blieb, ob die Software \u00fcberhaupt einen einzigen korrekten Treffer gelandet hatte, verbuchten die Beteiligten den Einsatz als Erfolg. Der gr\u00f6\u00dfte Konkurrent von <em>Viisage<\/em>, n\u00e4mlich <em>Visionics<\/em>, bot nun ebenfalls den Beh\u00f6rden von Tampa seine Dienste an, um im Sommer 2001 eine bestehende Video\u00fcberwachungsanlage in der Innenstadt zum \u201eSmart CCTV\u201c aufzur\u00fcsten. Doch erwies sich die Technik als wenig \u201esmart\u201c: Es h\u00e4uften sich Fehlalarme, und nach wenigen Wochen Laufzeit schaltete die Polizei das Programm ab \u2013 ohne die \u00d6ffentlichkeit dar\u00fcber zu informieren.<a href=\"#_ftn6\" name=\"_ftnref6\">[6]<\/a><\/p>\n<h4>Nach dem 11. September 2001<\/h4>\n<p>Derweil hatte <em>Visionics<\/em> l\u00e4ngst einen gr\u00f6\u00dferen Markt anvisiert. Nur 14 Tage nach den Anschl\u00e4gen vom 11. September ver\u00f6ffentlichte die Firma ein <em>white paper<\/em> mit dem Titel: \u201eProtecting Civilization from the Faces of Terror\u201c, das f\u00fcr die landesweite Aufr\u00fcstung aller Flugh\u00e4fen mit Gesichtserkennung pl\u00e4dierte. Ausgerechnet jene Technologie, die wenige Wochen zuvor in Florida ebenso spektakul\u00e4r wie von der \u00d6ffentlichkeit unbemerkt versagt hatte, h\u00e4tte, so wurde dort suggeriert, die Terroristen rechtzeitig stoppen k\u00f6nnen. Mit der Wirklichkeit hatten solche Argumente nur wenig zu tun \u2013 nicht zuletzt, weil Mohammed Atta und seine Mitt\u00e4ter gar nicht unter falschem Namen oder mit gef\u00e4lschten Papieren reisten. F\u00fcr die biometrische Industrie markierte 9\/11 dennoch einen \u201eParadigmenwechsel\u201c. Bislang, so formulierte es im Februar 2002 der CEO von Visionics, Joseph J. Atick, in seiner Er\u00f6ffnungsansprache zur Jahreskonferenz des <em>Biometric Consortiums<\/em>, h\u00e4tte man mit \u201ePrivatsph\u00e4rebedenken, Mangel als politischem Willen, unzureichender Finanzierung, fehlender Infrastruktur\u201c zu k\u00e4mpfen gehabt \u2013 all dies w\u00e4re nun wie weggewischt.<\/p>\n<p>In den Fokus r\u00fcckte nach 9\/11, etwa mit dem Programm \u201eUS-VISIT\u201c (ab 2005), vor allem die massive biometrische Aufr\u00fcstung der Grenzen. Zun\u00e4chst nur ausgew\u00e4hlte Reisende aus islamischen L\u00e4ndern, sp\u00e4ter dann fast alle, die mit Visum in die USA einreisten, wurden nun bei Ein- und Ausreise digital fotografiert und per Scanner daktyloskopisch erfasst. Zugleich wurde der Grenz\u00fcbergang zur Datensammelstelle: Allein bis 2012 wurden so \u00fcber 130 Millionen Nicht-US-B\u00fcr\u00adger*in\u00adnen in den Datenbanken des Heimatschutzministeriums erfasst, wo ihre Daten bis zu 75 Jahre lang gespeichert werden. Parallel zur Reform der Einreisebestimmungen dr\u00e4ngten die USA jene Staaten, deren B\u00fcrger*\u00adinnen bislang ohne Visum einreisen konnten \u2013 darunter die L\u00e4nder der EU \u2013, zur Einf\u00fchrung \u201emaschinenlesbarer\u201c Reisep\u00e4sse, die die Speicherung biometrischer Daten erlauben. Mit allzu gro\u00dfem Widerstand mussten sie nicht rechnen. Denn auch hierzulande verkn\u00fcpfte man nicht allein Sicherheits-, sondern auch \u00f6konomische Interessen mit dem neuen biometrischen Passregime: \u201eDie P\u00e4sse\u201c, so formulierte es Otto Schily, Bundesinnenminister und sp\u00e4ter in den Aufsichtsr\u00e4ten gleich zweier Biometrie-Unternehmen aktiv, \u201esind auch ein Wirtschaftsfaktor. Wir zeigen, dass Deutschland das Knowhow und die Innovationskraft hat, um im jungen Sektor Biometrie Standards zu setzen.\u201c<\/p>\n<p>Die Einf\u00fchrung der e-P\u00e4sse in den 2000er Jahren war mithin auch eine staatliche F\u00f6rderma\u00dfnahme f\u00fcr die \u201eZukunftsbranche\u201c Biometrie. Nicht zuletzt boten Grenzkontrollen ideale Einsatzbedingungen f\u00fcr deren immer noch fehleranf\u00e4llige Technologie: Stabile Umweltbedingungen, \u00fcberwiegend kooperative Individuen sowie auch technisch relativ einfach zu l\u00f6sende Aufgaben. Denn die Verifikation, also der 1:1-Vergleich der Merkmale bei der Passkontrolle, ist weit unkomplizierter als etwa der Abgleich eines unbekannten Gesichts in der Menge mit gro\u00dfen Mengen von Fahndungsbildern. Aus Sicht der Sicherheitsbeh\u00f6rden war jedoch letzteres nach wie vor die eigentliche Herausforderung. Insbesondere mit dem Ausbau der Video\u00fcberwachung im \u00f6ffentlichen Raum gewann die Idee, den kaum mehr von menschlichen Augen \u00fcberschaubaren Bilderstrom elektronisch auszuwerten, an F\u00fcrsprecher*in\u00adnen. Auch das BKA wurde wieder aktiv. Im Oktober 2006 startete man im Mainzer Hauptbahnhof einen viermonatigen Testlauf der automatisierten \u201eFoto-Fahndung\u201c. \u00c4hnlich wie j\u00fcngst am S\u00fcdkreuz waren auch hier die Gesichter von Freiwilligen zuvor gescannt worden \u2013 und sollten nun von \u201esmarten\u201c \u00dcberwachungskameras im t\u00e4glichen Pendlerstrom identifiziert werden. Das Ergebnis: Die Trefferraten im Feldversuch entsprachen nicht ann\u00e4hernd jenen, mit denen die Hersteller der Systeme warben, und waren f\u00fcr den praktischen Einsatz v\u00f6llig ungen\u00fcgend. In der \u00f6ffentlichen Berichterstattung jedoch wurde der Testlauf als erfolgreiches Pilotprojekt dargestellt \u2013 der fl\u00e4chendeckende Einsatz der Technologie stand, wieder einmal, unmittelbar bevor.<a href=\"#_ftn7\" name=\"_ftnref7\">[7]<\/a><\/p>\n<h4>Die neuen Player<\/h4>\n<p>Bis weit in die Nullerjahre war automatisierte Gesichtserkennung vor allem eine Sache spezialisierter Firmen der Sicherheitsbranche. Seit rund zehn Jahren allerdings dr\u00e4ngen ganz neue Player auf den Markt \u2013 nicht zuletzt die Internetgiganten Facebook, Google und Amazon. Auch aus Angst vor neuer Konkurrenz warnte schon 2011 der bereits zitierte Joseph J. Atick vor einem \u201eperfekten Sturm\u201c, der sich durch die Konvergenz von Smartphones, Social Media und K\u00fcnstlichen Neuronalen Netzen ank\u00fcndigte und B\u00fcrgerrechte in nie gekanntem Ausma\u00df bedrohte. Die Milliarden bereits namentlich identifizierbarer Bilder von Gesichtern, die mittlerweile online verf\u00fcgbar waren, boten ideale Trainings- und Testbedingungen f\u00fcr neuartige Gesichtserkennungsalgorithmen, die nicht mehr auf vorgegebene Regeln der Auswertung, sondern auf <em>machine learning<\/em> setzten. Nicht zuf\u00e4llig k\u00f6nnen sich soziale Netzwerke wie Facebook mittlerweile der leistungsf\u00e4higsten Algorithmen der Bilderkennung r\u00fchmen \u2013 denn jedes Mal, wenn jemand ein Bild von sich hochl\u00e4dt oder eine*n Bekannte*n auf einem Foto erkennt und taggt, wirkt er oder sie am Aufbau von Facebooks Bilddatenbanken und damit indirekt auch am Training seiner Algorithmen mit. Bilder von Gesichtern sind damit zur wertvollen Datenressource geworden \u2013 und zum Anker, der es erlaubt, beliebige Aufnahmen ein und derselben Person, in ganz unterschiedlichen Kontexten und selbst ohne deren Wissen erstellt, miteinander zu verkn\u00fcpfen. Das Beispiel <em>Clearview<\/em>, das seinen Kund*innen \u2013 darunter Polizeibeh\u00f6rden ebenso wie Unternehmen und sogar Privatleute \u2013 verspricht, jedes beliebige Gesicht innerhalb von Sekunden im Abgleich mit Milliarden von Bildern aus sozialen Netzwerken zu identifizieren, zeigt, dass der \u201eperfekte Sturm\u201c l\u00e4ngst Realit\u00e4t ist.<\/p>\n<h4>Lehren aus der Geschichte<\/h4>\n<p>Was l\u00e4sst sich angesichts dessen aus der Geschichte, die hier skizziert wurde, lernen? Automatisierte Gesichtserkennung ist nicht \u00fcber Nacht zum Thema geworden \u2013 sie wurde \u00fcber Jahrzehnte massiv gef\u00f6rdert, in einer konzertierten Anstrengung staatlicher Beh\u00f6rden und kommerzieller Unternehmen, begleitet von einem popul\u00e4ren Diskurs, der selbst, wo er sich technikkritisch gab, viele konkrete Probleme der Technologie ausblendete. Die Geschichte der automatisierten Gesichtserkennung ist eine Geschichte der gescheiterten Feldversuche und Testl\u00e4ufe \u2013 die in immer gr\u00f6\u00dferen Ma\u00dfst\u00e4ben durchgef\u00fchrt werden, aber praktisch nie die Versprechen erf\u00fcllen, die Politik und Medien an sie kn\u00fcpfen. Und dennoch ist sie eine Geschichte der Erfolgsmeldungen \u2013 weil das Interesse, auch problematische Ergebnisse als Erfolge zu verkaufen, einfach zu stark war.<\/p>\n<p>Und die Probleme lagen und liegen nicht allein in den Fehlerraten. V\u00f6llig ungel\u00f6st ist auch ein Problem, mit dem schon Takeo Kanade in den 1970er Jahren zu tun hatte: Selbst die neueste Software erkennt nicht jedes Gesicht mit der gleichen Zuverl\u00e4ssigkeit, vielmehr werden gerade Menschen mit dunklerer Hautfarbe schlechter erkannt als solche mit hellerer Haut. Der fl\u00e4chendeckende Einsatz von Gesichtserkennungs\u00adsoftware, das zeichnet sich jetzt schon in den USA ab, f\u00fchrt mithin zur Verst\u00e4rkung bestehender polizeilicher Diskriminierung.<a href=\"#_ftn8\" name=\"_ftnref8\">[8]<\/a><\/p>\n<p>Und nicht zuletzt, das zeigt das Beispiel <em>Clearview<\/em>, scheint eine Kontrolle des Einsatzes der Technologie immer schwerer m\u00f6glich \u2013 mit noch unabsehbaren Folgen. Was die Geschichte uns aber definitiv nicht lehren sollte, ist, dass die hier beschriebenen Entwicklungen zwangsl\u00e4ufig seien. Technik ist kein Schicksal, und es ist noch nicht zu sp\u00e4t, eine gesellschaftliche Diskussion zu beginnen, ob und unter welchen Bedingungen automatisierte Gesichtserkennung k\u00fcnftig unseren Alltag bestimmen soll.<\/p>\n<h6><a href=\"#_ftnref1\" name=\"_ftn1\">[1]<\/a> \u00a0 zit. nach Kontraste: Millionenfach unn\u00f6tige Personenkontrollen durch Gesichtserkennung?, ZDF v. 23.11.2018 (<a href=\"https:\/\/www.youtube.com\/watch?v=kpkTtkKpAwM\">https:\/\/www.youtube.com\/watch?v=kpkTtkKpAwM<\/a>)<\/h6>\n<h6><a href=\"#_ftnref2\" name=\"_ftn2\">[2]<\/a> \u00a0 Chaos Computer Club: Pressemitteilung v. 13.10.2018 (<a href=\"http:\/\/www.ccc.de\/de\/updates\/2018\/debakel-am-suedkreuz\">www.ccc.de\/de\/updates\/2018\/debakel-am-suedkreuz<\/a>)<\/h6>\n<h6><a href=\"#_ftnref3\" name=\"_ftn3\">[3]<\/a> \u00a0 Max-Planck-Institut f\u00fcr Bildungsforschung: Unstatistik des Monats. \u201eErfolgreiche\u201c Gesichtserkennung mit Hunderttausenden Fehlalarmen, Meldung v. 30.10.2018, (www.mpib-berlin.mpg.de\/unstatistik-gesichtserkennung-mit-fehlalarm)<\/h6>\n<h6><a href=\"#_ftnref4\" name=\"_ftn4\">[4]<\/a> \u00a0 Bundesministerium des Innern: Pressemitteilung v. 11.10.2018 (www.bmi.bund.de)<\/h6>\n<h6><a href=\"#_ftnref5\" name=\"_ftn5\">[5]<\/a> \u00a0 Die folgenden Ausf\u00fchrungen basieren auf meinem Buch: Operative Portr\u00e4ts. Eine Bildgeschichte der Identifizierbarkeit, Konstanz 2019. Dort finden sich auch alle weiteren Quellen und ausf\u00fchrliche Nachweise.<\/h6>\n<h6><a href=\"#_ftnref6\" name=\"_ftn6\">[6]<\/a> \u00a0 vgl. Gates, K. A.: Our Biometric Future. Facial Recognition Technology and the Culture of Surveillance, New York; London 2011, S. 63\u201396<\/h6>\n<h6><a href=\"#_ftnref7\" name=\"_ftn7\">[7]<\/a> \u00a0 vgl. Kammerer, D.: Bilder der \u00dcberwachung, Frankfurt a.M. 2008, S. 216\u2013226<\/h6>\n<h6><a href=\"#_ftnref8\" name=\"_ftn8\">[8]<\/a> \u00a0 Dieses Problem wird unter dem Stichwort <em>algorithmic bias<\/em> diskutiert, eine aktuelle Einf\u00fchrung in die Debatte liefert: Benjamin, R.: Race After Technology: Abolitionist Tools for the New Jim Code, Cambridge 2019<\/h6>\n","protected":false},"excerpt":{"rendered":"<p>von Roland Meyer In einer konzertierten Aktion zwischen staatlichen Sicherheitsbeh\u00f6rden und kommerziellen Unternehmen wurde seit<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[152,125],"tags":[271,290,687,1523],"class_list":["post-20099","post","type-post","status-publish","format-standard","hentry","category-artikel","category-cilip-121","tag-bahnhof-suedkreuz","tag-bertillonage","tag-gesichtserkennung","tag-visionics"],"_links":{"self":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts\/20099","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=20099"}],"version-history":[{"count":0,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts\/20099\/revisions"}],"wp:attachment":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=20099"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=20099"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=20099"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}