{"id":20102,"date":"2020-05-05T15:54:01","date_gmt":"2020-05-05T15:54:01","guid":{"rendered":"https:\/\/www.cilip.de\/?p=20102"},"modified":"2020-05-05T15:54:01","modified_gmt":"2020-05-05T15:54:01","slug":"ki-in-der-polizeiarbeit-der-mythos-vom-vorhersagbaren-verbrechen","status":"publish","type":"post","link":"https:\/\/wp-dev.daten.cool\/?p=20102","title":{"rendered":"KI in der Polizeiarbeit:\u00a0Der Mythos vom vorhersagbaren Verbrechen"},"content":{"rendered":"<h3>von Nina Galla<\/h3>\n<p><strong>Schon mindestens 75 Staaten nutzen K\u00fcnstliche Intelligenz (KI) zu polizeilichen Zwecken. Mit dem sogenannten \u201ePredictive Policing\u201c arbeiten 52 L\u00e4nder, 64 nutzen automatisierte Gesichtserkennung in der Video\u00fcberwachung.<a href=\"#_ftn1\" name=\"_ftnref1\">[1]<\/a> Pilotprojekte gibt es auch in Deutschland. <\/strong><\/p>\n<p>Wenn von KI die Rede ist, geht es meist um Verfahren eines mehr oder weniger ausgepr\u00e4gten maschinellen Lernens. Alle diese Systeme sind komplex, es braucht zahlreiche menschliche Entscheidungen, um sie so zu gestalten, dass sie tats\u00e4chlich ihren Zweck erf\u00fcllen. Diese Entscheidungen wiederum erfordern Kenntnis und Verst\u00e4ndnis sowohl der technischen Verfahren als auch des sozialen Kontexts ihres Einsatzes.<!--more--><\/p>\n<p>Die Datenethik-Kommission empfiehlt in ihrem im November 2019 ver\u00f6ffentlichten Gutachten, diese Systeme je nach Auswirkungen und Risikopotenzial in verschiedene Risikoklassen einzuordnen, aus denen sich Anforderungen an ihre Regulierung ergeben.<a href=\"#_ftn2\" name=\"_ftnref2\">[2]<\/a> KI in der Polizeiarbeit kann Auswirkungen auf das Vertrauen der Gesellschaft in die Beh\u00f6rden haben. Predictive Policing geh\u00f6rt daher in eine der h\u00f6chsten Risikoklassen des Modells der Datenethik-Kommission.<\/p>\n<p>Anders als manchmal suggeriert wird, sind KI-Systeme keine Zauberei. Es sind Maschinen, die mit hoher Rechenleistung statistische Verfahren anwenden. Sie ermitteln Wahrscheinlichkeiten. Sie k\u00f6nnen nur Korrelationen entdecken, keine Kausalit\u00e4ten. Und sie wenden keine wissenschaftlichen Verfahren an, um zu ihren Ergebnissen zu kommen. Menschen w\u00e4hlen aus, zu welchem Zweck und mit welchen Daten ein System trainiert wird. Menschen bewerten den Lernfortschritt und entscheiden, wie sie mit den Ergebnissen umgehen wollen. Menschen tragen also eine hohe Verantwortung entlang der gesamten Kette von Entwicklung, Einsatz und Evaluierung eines solchen Systems.<\/p>\n<p>Eine sogenannte \u201estarke KI\u201c, bei der eine Maschine in ihrem Lernverhalten unabh\u00e4ngig vom Menschen w\u00e4re, ist bis auf Weiteres technisch ausgeschlossen. Maschinen scheitern an Unvorhergesehenem und komplexen Zusammenh\u00e4ngen. Faktisch geht es also immer um \u201eschwache KI\u201c, also darum, dass Maschinen wenig komplexe Aufgaben ausf\u00fchren, welche bestimmten Regeln folgen und deren Kriterien f\u00fcr Computer zu verstehen, also operationalisierbar, sind.<\/p>\n<p>Beruhigen kann das allerdings nicht, denn auch \u201eschwache KI\u201c ist \u2013 insbesondere beim Einsatz im polizeilichen Bereich \u2013 nicht frei von Risiken. Grunds\u00e4tzlich geht es hier um die Vorverlagerung von Ermittlungen aufgrund von maschinell entdeckten Korrelationen und damit um eine m\u00f6gliche Umkehr der Unschuldsvermutung. Weitere Probleme zeigen sich, wenn man betrachtet, wie eine Maschine \u00fcberhaupt lernt und zu Entscheidungen kommt und wie mit diesen Entscheidungen umgegangen wird.<\/p>\n<h4>Trainingsdaten: Auf Basis welcher Daten lernen die Systeme, Entscheidungen zu treffen?<\/h4>\n<p>Maschinen lernen zun\u00e4chst auf Basis bereits vorhandener Daten. Damit die Maschine \u00fcberhaupt mit etwas arbeiten kann, m\u00fcssen diese Daten f\u00fcr Maschinen lesbar und verst\u00e4ndlich, also \u201eoperationalisierbar\u201c sein. Einfach zu operationalisierende Daten sind Alter, Geschlecht, Uhrzeit, Ort \u2013 also Daten, die einen eindeutigen Zustand beschreiben. Bezogen auf die Polizeiarbeit k\u00f6nnen dies personenbezogene Daten sein oder Fallzahlen von Straftaten, die wiederum klassifiziert werden k\u00f6nnen. Nicht oder nur sehr schwer operationalisierbar sind subjektive Umst\u00e4nde bei der Begehung von Straftaten \u2013 Motive, Affekte, Interaktion mit anderen. Verbrechen werden daher nie zuverl\u00e4ssig vorhersagbar sein.<\/p>\n<p>Es ist hingegen m\u00f6glich, bestimmte Wahrscheinlichkeiten zu errechnen: Wo in der Vergangenheit oft eingebrochen wurde, wird in Zukunft vielleicht auch oft eingebrochen. Da es in den letzten Jahren auf Weihnachtsm\u00e4rkten viele Taschendiebst\u00e4hle gab, wird es sie voraussichtlich auch wieder in diesem Jahr geben. Damit k\u00f6nnen Theorien wie zum Beispiel der Near-Repeat-Ansatz unterst\u00fctzt werden.<\/p>\n<p>In der Polizeiarbeit werden aber vielfach unn\u00f6tig Daten gesammelt und vorgehalten, um solche Trainingsdaten zu gewinnen. Sie sind f\u00fcr polizeiliche Zwecke nicht erforderlich. Von diesen Inputdaten ist jedoch das Ergebnis der maschinellen Arbeit abh\u00e4ngig: Bilden die Daten polizeilich relevante Vorg\u00e4nge zu einseitig ab? Manifestieren sie bereits bestehende Diskriminierungen? Sind sie zu alt? Bilden sie falsche Verh\u00e4ltnisse ab? Sind sie \u00fcberhaupt kausal zum Output oder verleiten sie zu falschen Ma\u00dfnahmen? Grunds\u00e4tzlich muss sich die Polizei hier fragen: Was soll eine Maschine hier besser k\u00f6nnen als der Mensch? Sind die Daten, die wir daf\u00fcr brauchen, \u00fcberhaupt in ausreichender Qualit\u00e4t und Quantit\u00e4t vorhanden und dabei operationalisierbar und kausal?<\/p>\n<h4>Algorithmus: Welches Lernverfahren wird gew\u00e4hlt, um das gew\u00fcnschte Ziel zu erreichen?<\/h4>\n<p>Eine Maschine braucht ein Ziel, f\u00fcr das sie lernen soll. Das kann sein, eine bestimmte Reihenfolge festzulegen, eine Route zu finden, ein Muster zu erkennen oder eine Wahrscheinlichkeit zu ermitteln. F\u00fcr diese Lernziele gibt es verschiedene Algorithmen, die beim Training eines Systems eingesetzt werden k\u00f6nnen. Die Wahl des Algorithmus ist daher essenziell f\u00fcr die Qualit\u00e4t des Ergebnisses. Aus diesem Grund ist es auch sehr problematisch, ein trainiertes KI-System f\u00fcr einen anderen als den urspr\u00fcnglichen Zweck einzusetzen. Es bedarf einer besonderen Expertise, um die richtigen technischen Anforderungen f\u00fcr den jeweiligen sozialen Kontext zu definieren. Systeme des maschinellen Lernens werden daher auch als sozio-technische Systeme bezeichnet, da sie je nach Umfeld unterschiedliche soziale Wirkungen entfalten. Es ist derzeit fraglich, ob diese Kompetenzen in Polizeibeh\u00f6rden \u00fcberhaupt ausreichend vorhanden sind.<\/p>\n<h4>Was macht der Mensch mit den Ergebnissen?<\/h4>\n<p>Im kommerziellen Kontext \u2013 etwa bei der Werbung durch Empfehlung von Produkten \u2013 ist das Schadenspotenzial von KI-Ergebnissen gering. Wer diesen Ergebnissen ausgesetzt wird, kann dem Vorschlag folgen oder auch nicht. Im polizeilichen Kontext ist dies logischerweise hochsensibel, denn hier geht es unter Umst\u00e4nden darum, ob die Polizei von Ermittlungs- und Zwangsbefugnissen Gebrauch macht oder nicht. Daher sind die Fragestellungen, welcher Art das Ergebnis ist (Wahrscheinlichkeit, Klassifizierung, Vorschlag) und wie viel Handlungsspielraum den polizeilichen Entscheider*innen gegeben wird, genauso zentral wie die Auswahl der Inputdaten und des Algorithmus. Ein Beispiel: Das Land Baden-W\u00fcrttemberg plant am Hauptbahnhof Mannheim ein Projekt, das Bewegungsabl\u00e4ufe von Passant*innen analysieren und bestimmte Verhaltensmuster melden soll. Als \u201ekritisches\u201c Verhalten soll dabei auch das Rennen gelten.<a href=\"#_ftn3\" name=\"_ftnref3\">[3]<\/a><\/p>\n<p>F\u00fcr ein KI-System ist es sehr schwierig, eine allgemeine Regel zu lernen, da es f\u00fcr das Verhalten von Menschen zu viele individuelle Motivationen gibt. Wie soll das System unterscheiden lernen, ob ein Mensch zu etwas oder jemandem hinl\u00e4uft (einem geliebten Menschen) oder vor etwas wegl\u00e4uft? Und wenn der Mensch wegl\u00e4uft \u2013 l\u00e4uft er*sie weg vor eine*r potenziellen Straft\u00e4ter*in oder ist sie*er selbst eine*r? Um das System richtig trainieren zu k\u00f6nnen, m\u00fcssen Grenzen festgelegt werden, ab wann das Laufen am Bahnhof als risikoreich gilt. Damit die Maschine operationalisierbaren Input bekommt, muss diese Grenze scharf gezogen werden: Es sind nur Entscheidungen \u201egef\u00e4hrlich\u201c oder \u201enicht gef\u00e4hrlich\u201c m\u00f6glich. Dies f\u00fchrt zwangsl\u00e4ufig dazu, dass harmloses Laufen hin und wieder als risikoreich bewertet wird und umgekehrt. Wo diese Grenze zu ziehen ist, entscheiden Menschen. Und hier stellt sich eine Frage, die nur gesamtgesellschaftlich festgelegt werden kann: Wollen wir lieber einige harmlose Passant*innen in die Klasse der Risikopersonen stecken oder besser einige Risikopersonen unerkannt lassen? Derzeit wird diese Debatte jedoch nicht \u00f6ffentlich gef\u00fchrt.<\/p>\n<p>Und im letzten Schritt: Wie geht der Mensch mit dem Ergebnis um, wenn ein Mensch als \u201erisikoreiche*r L\u00e4ufer*in\u201c erkannt wird: Ist der Verdacht der Maschine schon Anlass genug f\u00fcr eine \u00dcberpr\u00fcfung? Sind die Entscheider*innen f\u00e4hig, eine m\u00f6gliche Diskriminierung zu erkennen und kennen sie Wege f\u00fcr R\u00fcckmeldungen, dass das System optimiert werden muss? Was bl\u00fcht der* Entscheider*in, wenn sie trotz maschineller Treffermeldung auf eine \u00dcberpr\u00fcfung verzichtet?<\/p>\n<p>Bei kritischen Anwendungsbereichen von KI hei\u00dft es stets, dass die Letztentscheidung immer noch beim Menschen liege. Hier gibt es aber noch viel mehr Fragen zu stellen \u2013 vom Automatisierungsgrad bis hin zu arbeitsrechtlichen Konsequenzen bei Nicht-Befolgen der maschinellen Empfehlung. In der Mensch-Maschine-Interaktion k\u00f6nnen bis zu zehn verschiedene Automatisierungsgrade differenziert werden.<a href=\"#_ftn4\" name=\"_ftnref4\">[4]<\/a> Das menschliche Verhalten im Umgang mit maschinellen Entscheidungsvorschl\u00e4gen wird derzeit noch erforscht. Erste Ergebnisse zeigen, dass Menschen dazu neigen, maschinelle Entscheidungen nicht mehr in Frage zu stellen. Wenn beruhigend davon gesprochen wird, dass der Mensch stets die letzte Entscheidung treffe, lohnt es sich daher nachzufragen, welche Vorarbeit die Maschine denn geleistet hat: Hat sie Korrelationen dargestellt und drei m\u00f6gliche Handlungsempfehlungen gegeben? Oder nur eine, und die Entscheidung des Menschen besteht nur noch darin, zuzustimmen oder abzulehnen? Noch weniger Spielraum gibt es bei Automatisierungsgraden, die eine Entscheidung ausf\u00fchren und der Mensch sie nur noch stoppen kann. Auch hier trifft der Mensch die letzte Entscheidung, sie besteht jedoch nur noch aus Unterlassen oder Intervenieren.<\/p>\n<h4>Video\u00fcberwachung am S\u00fcdkreuz<\/h4>\n<p>Das wohl bekannteste KI-Projekt bislang in Deutschland ist das Pilotprojekt zur Gesichtserkennung am Berliner Bahnhof S\u00fcdkreuz von 2017. Das Ergebnis: mangelhaft. W\u00e4hrend das Bundesinnenministerium (BMI) die Ergebnisse durch Auslassung von wichtigen Informationen gesch\u00f6nt hat, machte der Chaos Computer Club dieser PR-Taktik einen Strich durch die Rechnung und stellte heraus, wie hoch die Fehlerquote der einzelnen Systeme tats\u00e4chlich war: Es k\u00f6nnten t\u00e4glich mehr als 600 Pas\u00adsant*innen f\u00e4lschlich als \u201eTreffer\u201c klassifiziert werden.<a href=\"#_ftn5\" name=\"_ftnref5\">[5]<\/a> Auch wenn die Interpretation des BMI aus rein politischen Gr\u00fcnden erfolgte, hinterl\u00e4sst sie den Beigeschmack fehlender technischer und statistischer Kompetenz, die Ergebnisse korrekt zu interpretieren.<\/p>\n<p>Auch in London hat eine Untersuchung der Gesichtserkennung durch die Polizei eine miserable Trefferquote von 20 Prozent offengelegt. Sie zeigte zus\u00e4tzlich, dass Polizist*innen zu leichtfertig mit den Ergebnissen umgehen, unter anderem weil sie nicht ausreichend \u00fcberpr\u00fcft wurden.<a href=\"#_ftn6\" name=\"_ftnref6\">[6]<\/a> Diese katastrophalen Ergebnisse hindern das BMI jedoch nicht daran, die Video\u00fcberwachung an Bahnh\u00f6fen in Zukunft auszubauen. Bis 2023 sollen insgesamt 132,5 Millionen Euro investiert werden.<a href=\"#_ftn7\" name=\"_ftnref7\">[7]<\/a><\/p>\n<h4>SKALA \u2013 schwache Aussagekraft von Prognosen<\/h4>\n<p>Auch andere Predictive Policing-Experimente fielen bisher mittelm\u00e4\u00dfig aus, so zum Beispiel das Projekt SKALA (kurz f\u00fcr \u201eSystem zur Kriminalit\u00e4tsauswertung und Lageantizipation\u201c), das von 2015-2017 in Nordrhein-Westfalen lief. Das Ziel des Pilotversuchs war es, die \u201eM\u00f6glichkeiten und Grenzen der Prognose von Kriminalit\u00e4tsbrennpunkten\u201c sowie die \u201eEffizienz und Effektivit\u00e4t daraus resultierender polizeilicher Ma\u00dfnahmen\u201c zu pr\u00fcfen.<a href=\"#_ftn8\" name=\"_ftnref8\">[8]<\/a> Der Fokus lag dabei auf Einbr\u00fcchen in Wohnungen und Gewerbeobjekten sowie bei KFZ-Delikten. W\u00e4hrend in anderen Datenanalysesystemen (z.B. \u201eHessendata\u201c) Daten aus unterschiedlichen Quellen lediglich zusammengef\u00fchrt werden, zeichnete sich SKALA durch eine Prognosefunktion aus.<\/p>\n<p>Im Idealfall sollte mit SKALA eine Senkung der Kriminalit\u00e4tsh\u00e4ufigkeit erreicht werden. Hierzu entwickelte das Landeskriminalamt NRW ein eigenes System, das sowohl strukturierte als auch unstrukturierte Daten analysieren und Muster erkennen kann. Als Datenbasis dienten polizeiliche Vorgangsdaten sowie Daten zu Bev\u00f6lkerungsstruktur, Einkommen, Geb\u00e4udestruktur, Reiseaffinit\u00e4ten und KFZ-Zulassungen, aber auch Fluchtm\u00f6glichkeiten wie die N\u00e4he zu Bundesstra\u00dfen oder Autobahnen. Auch die allgemeine Stra\u00dfenkriminalit\u00e4t, Berechnung der Tage seit dem letzten Einbruch im Wohnquartier beziehungsweise Stra\u00dfenabschnitt (\u201eNear-Repeat-Ansatz\u201c), der Modus Operandi der Tat sowie Wert und Art der Beute flossen in das System ein. Personenbezogene Daten (T\u00e4ter- oder Opferdaten) wurden nicht verwendet.<\/p>\n<p>Zun\u00e4chst wurden wissenschaftliche Hypothesen generiert und Vorhersagevariablen identifiziert. Dann erfolgte die Auswahl und Aufbereitung der Daten. Eine erste Einschr\u00e4nkung der Vorhersagequalit\u00e4t ergibt sich daraus, dass T\u00e4ter*innen wie oben angef\u00fchrt nicht durchgehend rational handeln, das hei\u00dft, dass sie nicht in jedem Fall allein eine Kosten-Nutzen-Abw\u00e4gung ihrer Tat vornehmen. Daraus resultierende Prognosefehler lassen sich auch nicht operationalisieren. Eine weitere Fehlerquelle resultiert aus dem Umstand, dass manche Delikte erst mit Verzug angezeigt werden oder auch die tats\u00e4chliche Deliktschwere erst sp\u00e4ter ermittelt wird. Deshalb wurden bei SKALA regelm\u00e4\u00dfig neue aktualisierte Gesamtdaten bezogen.<\/p>\n<p>Zur Analyse wurde mit Entscheidungsb\u00e4umen gearbeitet. Entscheidungsbaummodelle gelten als gut nachvollziehbar, da hierbei Datenl\u00fccken erkannt und geschlossen werden k\u00f6nnen, au\u00dferdem k\u00f6nnen zielgenau Variablen ver\u00e4ndert werden. So zeigte sich beispielsweise, dass Wetterdaten nicht die angenommene Relevanz f\u00fcr die Prognose hatten.<\/p>\n<p>Zur Prognoseberechnung wurden raum- und zeitbezogene Daten (Jahreszeiten) zusammengef\u00fchrt und Wohnquartiere als r\u00e4umliche Bezugsgr\u00f6\u00dfe ausgew\u00e4hlt. Hierbei war darauf zu achten, dass die Quartiere eine ausreichende Homogenit\u00e4t aufweisen und die Einheiten weder zu gro\u00df noch zu klein gew\u00e4hlt werden. Je gr\u00f6\u00dfer die Einheit, desto mehr Detailinformationen gehen verloren, desto h\u00f6her ist aber auch die Wahrscheinlichkeit, dass ein erwartetes Ereignis eintritt. Ist die Einheit jedoch zu klein, k\u00f6nnten zu viele Details zu Un\u00fcberschaubarkeit und schlechterer Vergleichbarkeit f\u00fchren. Im Laufe des Projekts wurde beispiels\u00adweise der Zuschnitt der Quartiere noch einmal angepasst. Die Er\u00adgeb\u00adnisse der Prognosen wurden dann den Polizeikr\u00e4ften als Karten \u00fcber\u00admittelt. Zu bedenken ist hierbei, dass auch die Gestaltung von Visualisierungen nicht neutral ist und Farbgebungen das menschliche Verhalten beeinflussen k\u00f6nnen.<\/p>\n<p>Die Ergebnisse beschreiben zun\u00e4chst lediglich die beobachteten Effekte. Bei der Auswertung musste sichergestellt sein, dass hier keine Ver\u00adzerrung entsteht, indem Taten, die nicht zum Katalog der definierten beobachteten Delikte geh\u00f6ren, hinzugerechnet werden. Wie sich auf zahlreichen Veranstaltungen herausstellte, sind Definitionen einheitlicher Validierungsindizes allerdings noch keine g\u00e4ngige Praxis im Bereich von Predictive Policing; dies erschwert auch die Vergleichbarkeit mit anderen Systemen. Die Analyse ist auch abh\u00e4ngig vom beobachteten Zeitraum. Es k\u00f6nnen sich gro\u00dfe Abweichungen ergeben \u2013 abh\u00e4ngig davon, ob Daten aus einem Zeitraum von einem Tag oder zwei Wochen betrachtet wurden. Auch das betrachtete Quartier ist differenziert zu bewerten: Wenn sich die Prognose auf einen \u201eHotspot\u201c bezieht, in dem die Wahrscheinlichkeit f\u00fcr Straftaten sowieso schon hoch ist, dann ist zwar auch die Erfolgsquote hoch, hat aber keinen Mehrwert. Tats\u00e4chlich lag die vom System berechnete Einbruchswahrscheinlichkeit h\u00f6her in Wohnquartieren, die insgesamt stark von Einbr\u00fcchen betroffen sind, als in Quartieren, in denen der Zeitabstand zum letzten Einbruch hoch war. Im Ergebnis konnte die KI also das nachbilden, was erfahrene Polizeibeamt*innen ohnehin prognostizierten. Ob dieses Ergebnis den Einsatz von insgesamt mehr als 500.000 Euro rechtfertigt, bleibt fraglich.<\/p>\n<p>Das wichtigste Ziel des SKALA-Projekts war jedoch, in Prognosegebieten Taten durch gezielte pr\u00e4ventive Ma\u00dfnahmen wie Bestreifung zu verhindern. \u201eTrefferraten\u201c k\u00f6nnen dadurch also nicht verifiziert werden, denn die Zahl ausgebliebener Straftaten l\u00e4sst sich nicht berechnen. Auch wenn die Polizei in den getesteten Gebieten w\u00e4hrend des SKALA-Projekts ihre Ma\u00dfnahmen gar nicht verst\u00e4rkt hat, wurden keine \u201eTrefferraten\u201c berechnet. Denn auch hier bedeutet Korrelation keine Kausalit\u00e4t.<\/p>\n<p>Auch zeigte sich, dass mehr Daten nicht zu besseren Ergebnissen f\u00fchren. Es blieben elf Variablen \u00fcbrig, die f\u00fcr die Prognose als sinnvoll erachtet wurden. Ausschlaggebender war der Zuschnitt der bewerteten Wohnquartiere. Je nach Wohnquartier und Jahreszeit zeigten sich unterschiedliche Korrelationen der ausgew\u00e4hlten Variablen, so dass eine \u00dcbertragbarkeit der Ergebnisse auf andere Zeitr\u00e4ume, Quartiere oder gar von der Stadt auf das Land nicht m\u00f6glich ist.<\/p>\n<h4>KI verhindert keine Straftaten, gef\u00e4hrdet aber B\u00fcrgerrechte<\/h4>\n<p>Mittlerweile ist die Zahl der Einbruchsstraftaten in Deutschland wieder zur\u00fcckgegangen, ohne dass es daf\u00fcr eine eindeutige Erkl\u00e4rung gibt. Eine ganze Reihe weiterer Straftaten mit vielen Opfern, insbesondere Beziehungstaten, l\u00e4sst sich mit Predictive Policing ohnehin nicht prognostizieren. Es fehlt wie gesagt an operationalisierbaren Daten. Das Freiburger Max-Planck-Institut f\u00fcr ausl\u00e4ndisches und internationales Strafrecht hat in einer Studie ebenfalls herausgestellt, dass Predictive Policing h\u00f6chs\u00adtens im hom\u00f6opathischen Bereich Nutzen f\u00fcr die Polizeiarbeit bringt.<a href=\"#_ftn9\" name=\"_ftnref9\">[9]<\/a><\/p>\n<p>Bislang d\u00fcrfen aufgrund mangelnder Rechtsgrundlagen Systeme der automatisierten Entscheidungsfindung nur als Pilotprojekte eingesetzt werden. Wie die oben genannten Beispiele zeigen, ist das ein gro\u00dfes Gl\u00fcck, da die Maschinen nicht ansatzweise halten, was sich Beh\u00f6rden von ihnen erhoffen. Und selbst wenn, stellt sich die Frage nach der ben\u00f6tigten Rechtsgrundlage.<\/p>\n<p>Predictive Policing kann dar\u00fcber hinaus auch Profilbildung bedeuten. Im September 2019 startete das EU-finanzierte Forschungsprogramm \u201eRoxanne\u201c, das Sprach-, Video-, Orts- und Netzwerkdaten (auch aus sozialen Medien) aus unterschiedlichen Quellen auswerten und verbinden soll, um damit Netzwerke aufzudecken. Daran beteiligt sind neben Interpol auch die Universit\u00e4ten Hannover und Saarbr\u00fccken. Hierbei k\u00f6nnen Menschen aufgrund von pers\u00f6nlichen Netzwerken zu Risikoklassen gez\u00e4hlt werden,<a href=\"#_ftn10\" name=\"_ftnref10\">[10]<\/a> in die sie \u00fcberhaupt nicht geh\u00f6ren. In den USA werden solche Profilbildungen und Netzwerkanalysen bereits angewendet. Das System macht dabei auch nicht Halt vor Rentnern und \u00fcber 100-J\u00e4hrigen, die vor Jahrzehnten in Gangs aktiv waren.<a href=\"#_ftn11\" name=\"_ftnref11\">[11]<\/a> Die Technologie entwickelt sich schnell weiter: An der Wuhan University of Technology in China konnten k\u00fcrzlich anhand von Schallwellen Bewegungen in einem Raum erkannt werden.<a href=\"#_ftn12\" name=\"_ftnref12\">[12]<\/a> Die maschinelle \u00dcberwachung \u2013 sie geht weiter.<\/p>\n<h4>Wie weiter?<\/h4>\n<p>Schaut man hinter den Zauber der KI, wird deutlich, dass es keine Anwendungsbereiche gibt, in denen Maschinen bessere Polizeiarbeit machen k\u00f6nnen als die Polizei selbst. Das Versprechen, mit maschinellem Lernen k\u00f6nne ein h\u00f6heres Sicherheitsniveau erreicht werden, ist nicht haltbar und irref\u00fchrend. Damit die Gesellschaft dieser M\u00e4r nicht auf den Leim geht \u2013 mit allen beschriebenen Konsequenzen \u2013, braucht es eine breite Aufkl\u00e4rung und Sensibilisierung zu den M\u00f6glichkeiten und Grenzen von Maschinen \u2013 und nicht zuletzt eine Aufwertung des Menschen, der immer noch besser in der Lage ist, komplexe Situationen einzusch\u00e4tzen als jede Maschine.<\/p>\n<p>Gesichtserkennung und auch Video\u00fcberwachung finden derzeit nur wenige Gegner*innen, da die Vorstellung, man habe selbst nichts zu verbergen, zum subjektiven Gef\u00fchl einer Nicht-Beobachtung f\u00fchrt und die Erfassung der eigenen Daten keinen unmittelbar sp\u00fcrbaren Nachteil ergibt.<\/p>\n<p>Es ist jedoch nicht unerheblich, wo und von wem wir gefilmt werden, was mit den Aufnahmen geschieht und wer wo wie lang die Aufnahmen speichert. Es ist nicht immer blo\u00df eine Spielerei, wenn Apps aus aktuellen Gesichtsbildern Emojis machen oder berechnen, wie jemand in drei\u00dfig Jahren aussehen wird. Es kann immer ein Training f\u00fcr Gesichtserkennungssoftware dahinter stehen, dem die einzelnen Nutzer*innen durch Hinweggehen \u00fcber die Allgemeinen Gesch\u00e4ftsbedingungen (AGB) zustimmen, ohne es bewusst wahrzunehmen. Wenn un\u00adzu\u00adreichende oder fehlerhafte Systeme von nicht ausgebildeten oder autorisierten Polizist*innen verwendet werden, geraten m\u00f6glicherweise Daten in die Polizeiarbeit, die dort nicht hingeh\u00f6ren. Die Pl\u00e4ne, zahlreiche Datenbanken auf europ\u00e4ischer Ebene zusammenzuf\u00fchren, erh\u00f6hen das Risiko der unberechtigten Zugriffe.<\/p>\n<p>Wenn ein System des maschinellen Lernens schon unbedingt eingesetzt werden soll, dann sollte es doch zun\u00e4chst zu internen Zwecken innerhalb von Beh\u00f6rden pilotiert werden. Es k\u00f6nnten dabei (selbstverst\u00e4ndlich unter Achtung von Datenschutz-Rechten der Arbeitenden) missbr\u00e4uchliche Datennutzungen entdeckt oder auch rechte Netzwerke aufgedeckt werden \u2013 ohne B\u00fcrgerrechte zu gef\u00e4hrden. Dabei k\u00f6nnen gleichzeitig beh\u00f6rden-internes Wissen und Erfahrungen aufgebaut werden, die derzeit noch nicht fl\u00e4chendeckend vorhanden sind.<\/p>\n<p>Auch die Fragestellung, in welcher Gesellschaft wir leben wollen, muss regelm\u00e4\u00dfig breit diskutiert werden: Nur eine informierte Gesellschaft ist in der Lage, den Sicherheitswahn der Beh\u00f6rden kritisch zu hinterfragen und B\u00fcrgerrechte zu sch\u00fctzen. Die Zahlen des Pilotversuchs am S\u00fcdkreuz sind ernst zu nehmen: Wenn t\u00e4glich 600 Menschen f\u00e4lschlicherweise als Terrorist*innen klassifiziert werden, ist es eine Frage der Zeit, bis es auch jene trifft, die bislang meinten, sie h\u00e4tten nichts zu verbergen.<\/p>\n<p>Von den Beh\u00f6rden m\u00fcssen wir erwarten und einfordern, dass sie offenlegen, wie sie ihre Systeme ausw\u00e4hlen und trainieren, wer an welcher Stelle was entscheidet und welche Qualifikationen diese Person mitbringt. Entsprechend den Risikoklassen der Datenethikkommission braucht es einen klaren Katalog von Anforderungen f\u00fcr Systeme in der Polizeiarbeit und auch eine klare rote Linie: K\u00f6nnen relevante Kriterien nicht erf\u00fcllt werden, darf das System nicht eingesetzt werden. Es muss auch gestoppt werden, wenn es im laufenden Betrieb Diskriminierungen zeigt oder Entscheidungen nicht nachvollziehbar und reproduzierbar sind. Hierzu braucht es eine qualifizierte \u00f6ffentliche Kontrollinstanz. Der Einsatz kann sich durchaus lohnen: In San Francisco wurde die Gesichtserkennung mittlerweile wieder deutlich eingeschr\u00e4nkt.<a href=\"#_ftn13\" name=\"_ftnref13\">[13]<\/a><\/p>\n<p>Die Pl\u00e4ne des BMI, 135 Bahnh\u00f6fe mit biometrischer Gesichtserkennung auszustatten, sind vorerst gestoppt.<a href=\"#_ftn14\" name=\"_ftnref14\">[14]<\/a> Parallel arbeitet allerdings das BKA an einer polizeilichen KI-Strategie.<a href=\"#_ftn15\" name=\"_ftnref15\">[15]<\/a> Noch ist wenig dazu bekannt und man darf gespannt sein, wann und wo die Gesichtserkennung wieder auftaucht und wie sorgf\u00e4ltig die aktuellen Fehlerquellen der Pilotversuche erkannt und geschlossen wurden. Die Zeit bis dahin sollten B\u00fcrgerrechtler*innen nutzen, um unbequeme Fragen vorzubereiten und mit gesellschaftlicher Unterst\u00fctzung zur rechten Zeit das Salz in die richtige Wunde zu streuen.<\/p>\n<h6><a href=\"#_ftnref1\" name=\"_ftn1\">[1]<\/a> \u00a0 Forscher: Weltweit immer mehr Massen\u00fcberwachung mit KI, heise online v. 18.9.2019<\/h6>\n<h6><a href=\"#_ftnref2\" name=\"_ftn2\">[2]<\/a>\u00a0\u00a0 Datenethikkommission der Bundesregierung: Gutachten, Berlin Oktober 2019, S. 177 (<a href=\"http:\/\/www.bmjv.de\/SharedDocs\/Downloads\/DE\/Themen\/Fokusthemen\/Gutachten_DEK_DE.pdf%20\">www.bmjv.de\/SharedDocs\/Downloads\/DE\/Themen\/Fokusthemen\/Gutachten_DEK_DE.pdf<\/a>)<\/h6>\n<h6><a href=\"#_ftnref3\" name=\"_ftn3\">[3]<\/a> \u00a0 Mannheim testet verhaltensbasierte Video\u00fcberwachung, heise online v. 3.12.2018<\/h6>\n<h6><a href=\"#_ftnref4\" name=\"_ftn4\">[4]<\/a> \u00a0 Save, L.; Feuerberg, B.: Designing Human-Automation Interaction: a new level of Automation Taxonomy, in: De Waard, D. et al.: Human Factors: a view from an integrative perspective, HFES Europe Chapter Conference, Toulouse 2012, S. 43-55 (44) (<a href=\"http:\/\/www.hfes-europe.org\/wp-content\/uploads\/2014\/06\/Save.pdf\">www.hfes-europe.org\/wp-content\/uploads\/2014\/06\/Save.pdf<\/a>)<\/h6>\n<h6><a href=\"#_ftnref5\" name=\"_ftn5\">[5]<\/a> \u00a0 Video\u00fcberwachung: Seehofer h\u00e4lt fl\u00e4chendeckende Gesichtserkennung f\u00fcr m\u00f6glich, zeit.de v. 12.10.2018; CCC: Bundespolizei hat Bericht zur Gesichtserkennung absichtlich gesch\u00f6nt, heise online v. 15.10.2018<\/h6>\n<h6><a href=\"#_ftnref6\" name=\"_ftn6\">[6]<\/a> \u00a0 Gesichtserkennung in London hat miserable Trefferquote und kann Menschenrechte verletzen, Netzpolitik.org v. 5.7.2019<\/h6>\n<h6><a href=\"#_ftnref7\" name=\"_ftn7\">[7]<\/a> \u00a0 Bahn: mehr \u00dcberwachung mit Gesichtserkennung an Bahnh\u00f6fen, heise.de v. 12.9.2019<\/h6>\n<h6><a href=\"#_ftnref8\" name=\"_ftn8\">[8]<\/a> \u00a0 Landeskriminalamt NRW: Abschlussbericht Projekt SKALA, D\u00fcsseldorf 2018 (<a href=\"https:\/\/lka.polizei.nrw\/sites\/default\/files\/2019-01\/180821_Abschlussbericht_SKALA_0.PDF\">https:\/\/lka.polizei.nrw\/sites\/default\/files\/2019-01\/180821_Abschlussbericht_SKALA_0.PDF<\/a>)<\/h6>\n<h6><a href=\"#_ftnref9\" name=\"_ftn9\">[9]<\/a> \u00a0 Predictive Policing \u2013 die Kunst, Verbrechen vorherzusagen, heise online v. 19.5.2019<\/h6>\n<h6><a href=\"#_ftnref10\" name=\"_ftn10\">[10]<\/a> Strafverfolgung: Geheimdienstmethoden f\u00fcr Ermittler, Golem v. 8.11.2019<\/h6>\n<h6><a href=\"#_ftnref11\" name=\"_ftn11\">[11]<\/a> Big Data: Predictive policing in Chicago, Wired v. 12.12.2018<\/h6>\n<h6><a href=\"#_ftnref12\" name=\"_ftn12\"><\/a><a href=\"#_ftnref13\" name=\"_ftn13\">[13]<\/a> San Francisco verbietet Gesichtserkennung durch Beh\u00f6rden, Zeit online v. 15.5.2019<\/h6>\n<h6><a href=\"#_ftnref14\" name=\"_ftn14\">[14]<\/a> Bundespolizei: Nutzung von Gesichtserkennung wird wohl nicht erlaubt, RBB24 v. 24.1.2020<\/h6>\n<h6><a href=\"#_ftnref15\" name=\"_ftn15\">[15]<\/a> BT-Drs. 19\/13221 v. 16.9.2019, S. 6<\/h6>\n","protected":false},"excerpt":{"rendered":"<p>von Nina Galla Schon mindestens 75 Staaten nutzen K\u00fcnstliche Intelligenz (KI) zu polizeilichen Zwecken. Mit<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[152,125],"tags":[271,687,892,1153],"class_list":["post-20102","post","type-post","status-publish","format-standard","hentry","category-artikel","category-cilip-121","tag-bahnhof-suedkreuz","tag-gesichtserkennung","tag-kuenstliche-intelligenz","tag-predictive-policing"],"_links":{"self":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts\/20102","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=20102"}],"version-history":[{"count":0,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=\/wp\/v2\/posts\/20102\/revisions"}],"wp:attachment":[{"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=20102"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=20102"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wp-dev.daten.cool\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=20102"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}