Netzwelt

Europäischer Polizeikongress

Wie die Polizei mit Algorithmen experimentiert

Der Hype um künstliche Intelligenz ist auch bei der Polizei groß: Die Sicherheitsbehörden testen Automatisierung und Prognosewerkzeuge. Doch viele Fragen sind ungeklärt.

DPA

Ein als Einbrecher verkleideter Mann mit Bewegungsprofil (Symbolbild)

Von
Mittwoch, 20.02.2019   17:19 Uhr

Auch Barack Obama war auf dem Europäischen Polizeikongress in Berlin zu sehen - allerdings ein gefälschter: Bei einer Präsentation wurde Ermittlern und Vertretern von Sicherheitsbehörden gezeigt, wie leicht Betrüger sogenannte Deep Fakes erstellen können - täuschend echte, computergenerierte Videos von Personen, die etwas sagen oder tun, was allerdings nie stattgefunden hat. Für Ermittler kann das künftig zur Herausforderung werden.

Gleichzeitig erleichtert ähnliche Technologie den Behörden auch die Ermittlungen und spielt eine zunehmende Rolle in der deutschen Polizeiarbeit. Dazu gehören Gesichtserkennungssoftware, auf künstlicher Intelligenz (KI) basierende Videoanalyse und Programme, die Muster in Daten suchen oder die Wahrscheinlichkeit von Verbrechen vorhersagen.

Polizeieinheiten suchen etwa mit der Hilfe von Gesichtserkennungssoftware in Bild- und Videoaufnahmen nach Verdächtigen - entweder nach Straftaten oder per Live-Abgleich mit einer Fahndungsliste wie beim inzwischen abgeschlossenen Pilotversuch am Berliner Südkreuz.

Thomas Striethörster, Präsident der Bundespolizei Berlin, sprach sich auf dem Polizeikongress für "biometrische Gesichtserkennung an ausgewählten Bahnhöfen und Flughäfen" aus. Es liege an der Politik zu entscheiden, ob Gesichtserkennung zukünftig im Alltagsbetrieb erlaubt werden soll. "Wir haben genug Überwachungskameras. Aber wir hatten Sachverhalte, wo wir den Täter nicht erkannt haben", so Striethörster. Auch Attentäter Anis Amri sei an einer Kamera vorbeigelaufen, aber nicht erkannt worden.

Mehr als zwei Fehlalarme pro Stunde

Striethörster griff die Kritik an der Fehlerquote der Videoüberwachung beim Berliner Pilotversuch auf: "Ein Fehlerwert von 0,25 hört sich erst mal gut an, aber die Rolltreppe fahren pro Stunde 1000 Menschen herunter und zweieinhalb Mal pro Stunde wird ein Mensch so fälschlicherweise detektiert", so der Chef der Berliner Bundespolizei.

Eine Überlegung sei, zukünftig zwei Gesichtserkennungssysteme gleichzeitig einzusetzen und diese zu vernetzen - nur wenn beide anschlagen, solle ein Alarm ausgelöst werden. In einer zweiten Testphase wird in den kommenden Monaten am Südkreuz geprüft, wie gut Software potenziell gefährliche Situationen erkennen kann - wie beispielsweise stehengelassene Gegenstände, ungewöhnliche Bewegungen in Menschenmassen oder eine Person, die am Boden liegt.

Die Hamburger Polizei sucht inzwischen automatisiert in Bild- und Videoaufnahmen nach Verdächtigen, die an Ausschreitungen während des Hamburger G20-Gipfels im Juli 2017 beteiligt waren. In einer Referenzdatenbank werden dafür biometrische Gesichtsabdrücke von Personen gespeichert, die im Bildmaterial aus Überwachungskameras, aber auch in Handyvideos von Zeugen zu sehen sind. Allerdings zählen dazu auch viele Personen, die während des G20-Gipfels in Hamburg etwa nur zur Arbeit gefahren sind. Hamburgs Datenschutzbeauftragter Johannes Caspar hat daher angeordnet, die Datenbank zu löschen.

Bei vermummten Tätern wird es für die Software schwierig

"Es sind im Zusammenhang mit dem G20-Gipfel insgesamt 100 TB an Bild- und Videomaterial angefallen. Wenn man einen Sachbearbeiter zwingen würde, alles durchzugucken, wären das 60 Jahre", begründet Thomas Radszuweit von der Ermittlungseinheit "Schwarzer Block" beim LKA Hamburg den Nutzen.

Allein 17 Terabyte in das System zu importieren habe sieben Wochen gedauert. Bei vermummten Tätern stoße die Software allerdings an ihre Grenze - dann müsse ein Ermittler etwa Indizien wie Kleidung in verschiedenen Aufnahmen abgleichen.

Auch in Bayern erleichtert Gesichtserkennung die Identifizierung von Fotos von Verdächtigen, die digitale Einschätzung wird aber jedes Mal von einem Experten geprüft: "Das Gesicht wird vermessen, nur der Lichtbildexperte kann aber mit 99,9 Prozent sagen, ob es sich tatsächlich um die Person handelt", sagt Bernhard Egger vom bayerischen LKA. 148 Ermittlungsverfahren seien so im vergangenen Jahr aufgeklärt worden.

Deutschland liegt beim Einsatz von Automatisierungssoftware noch weit hinter anderen Ländern wie den USA zurück. Die Sicherheitsbehörden seien "in der Initialphase", sagt der Experte für Verwaltungsdigitalisierung bei Capgemini, Tobias Knobloch. "Erste Gehversuche wie etwa bei Predictive Policing finden statt. Bei der Gefahrenabwehr ist natürlich mehr möglich und da wird auch schon mehr gemacht, wobei wir aufgrund von Geheimhaltung davon nicht viel wissen."

Kritiker fordern Leitplanken für den Technikeinsatz

Für bisher sechs Landeskriminalämter berechnet eine Prognose-Software die Wahrscheinlichkeit von Einbrüchen und deckt Muster im Vorgehen der Täter auf. Die Wirkung der Software ist schwer belegbar, Knobloch sieht dennoch einen positiven Nebeneffekt: "Um Prozesse automatisieren oder digitalisieren zu können, muss ich sie explizit machen, zerlegen, aufdröseln, hinterfragen, vereinfachen, optimieren. All das würde ohne den Druck des Digitalen vielfach nicht passieren", sagte er dem SPIEGEL.

Auf dem Polizeikongress wurde auch KI-basierte Software wie die "Terror Cell Identification" (TCI) präsentiert, die Radikalisierungsverläufe bei Terrorverdächtigen berechnen soll. Das hessische LKA setzt bereits die Analyseplattform "Hessendata" ein, die auf dem Gotham-System der umstrittenen Analysefirma Palantir basiert. Daten aus verschiedenen Quellen wie Polizeidatenbanken oder sozialen Medien werden ausgewertet, Netzwerke visualisiert. Zukünftig soll die Software auch in Bereichen wie organisierter Kriminalität und schweren Straftaten wie Mord angewandt werden.

Der Einsatz solcher Technologien stößt auf Kritik - auch auf dem Polizeikongress: Andreas Kleinknecht, Mitglied der Geschäftsleitung von Microsoft Deutschland, warnte davor, dass vor allem Gesichtserkennung und darauf aufsetzende Dienste "missbrauchsgefährdet" seien. Die Politik solle nicht "zum Reparaturbetrieb für fehlgeleitete KI-Entwicklungen werden, sagte Kleinknecht. Stattdessen müssten schnellstmöglich Leitplanken für den Einsatz der Technologie geschaffen werden - auch in der Polizeiarbeit.

insgesamt 4 Beiträge
spigalli 20.02.2019
1. so schnell kann es gehen.
vor 2010: Helmut Bäumler: "Die einzelne Videokamera mag für sich gesehen sinnvoll und nützlich sein. Aber viele aneinander gereihte sinnvolle und nützliche Videokameras können gleichwohl freiheitsgefährdend sein." [...]
vor 2010: Helmut Bäumler: "Die einzelne Videokamera mag für sich gesehen sinnvoll und nützlich sein. Aber viele aneinander gereihte sinnvolle und nützliche Videokameras können gleichwohl freiheitsgefährdend sein." [Wikipedia] 2019: Striehhörtser: "Wir haben genug Überwachungskameras." [spiegel.de]
spmc-12355639674612 20.02.2019
2. Keine Nadel im Heuhaufen
Wir suchen ja keine Nadel im Heuhaufen, sondern eine etwas längere Nadel in einem großen Haufen unterschiedlich langer Nadeln. Ich kann die Schwelle entweder so einstellen, dass ich die "längere Nadel" mit höherer [...]
Wir suchen ja keine Nadel im Heuhaufen, sondern eine etwas längere Nadel in einem großen Haufen unterschiedlich langer Nadeln. Ich kann die Schwelle entweder so einstellen, dass ich die "längere Nadel" mit höherer Wahrscheinlichkeit finde, womit auch die Wahrscheinlichkeit steigt, die "falschen Nadeln" zu finden, oder ich kann die Erkennungsschwelle so einstellen, dass ich möglichst wenige Fehlalarme erzeuge, womit jedoch die Wahrscheinlichkeit steigt, die "richtige Nadel" gar nicht zu finden. Wer sich mit Personenerkennung beschäftigt, weiß, dass man - als Mensch - andere Menschen von weitem an der Art erkennt, wie sie sich bewegen, ohne dass man - als Mensch - dazu eine Gesichtserkennung benötigt. Leider stecken automatisierte Verfahren, die sich dieser Erkenntnis bedienen, noch in den Kinderschuhen. Ob sie bei großen Menschenmengen zuverlässig funktionieren würden, kann man nicht sagen.
T. Wittlinger 20.02.2019
3. Stochastik, ein weites Feld, für viele Kriminologen ein zu weites?
In Betrachtung des Artikels, stellt sich mir die Frage warum die folgende Pressemitteilung aus: >Unstatistiken< nicht bis in die Amtstuben der Entscheider vorgedrungen ist? "Erfolgreiche" Gesichtserkennung mit [...]
In Betrachtung des Artikels, stellt sich mir die Frage warum die folgende Pressemitteilung aus: >Unstatistiken< nicht bis in die Amtstuben der Entscheider vorgedrungen ist? "Erfolgreiche" Gesichtserkennung mit Hunderttausenden Fehlalarmen (Prof. Dr. Gerd Gigerenzer Okt. 2918) http://en.rwi-essen.de/media/content/pages/presse/downloads/181030_unstatistik_oktober.pdf Gibt es bei den wissenschaftlichen Zuarbeitern, in den Innenministerien und den Polizeidirektionen, keine Mathematiker die >false positive< erläutern können? Wer falsch rechnet, den bestrafen das Leben oder die Mathematiker, die nachrechnen aktuell z.B. >Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice< https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3333423 Vieleicht knüpft sich SPON mal das Thema >Risikokompetenz< ausführlich vor ;-)
mantrid 21.02.2019
4. Wahrscheinlichketien statt Wahrheit?
Algorithmen berechnen nur Wahrscheinlichkeiten, erfassen aber eben nicht die Wahrheit. Gefährlich wird es, wenn dieser Unterschied nicht erfasst wird. Wollen wir Urteile auf Basis von Wahrscheinlichkeiten statt von Beweisen? KI [...]
Algorithmen berechnen nur Wahrscheinlichkeiten, erfassen aber eben nicht die Wahrheit. Gefährlich wird es, wenn dieser Unterschied nicht erfasst wird. Wollen wir Urteile auf Basis von Wahrscheinlichkeiten statt von Beweisen? KI kann Polizeiarbeit unterstützen, Digitalisierung mühevoller Kleinarbeit vereinfachen, als Helfer fungieren. Mehr aber auch nicht! Noch gefährlicher wird es, wenn Politk sich auf Wahrscheinlichkeiten verlässt. Der Film "Minority Report" greift das exxellent auf.

Verwandte Themen

Verwandte Artikel

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung

TOP