Pre-Policing

Zukunft der Forensik

Blaulicht eines Polizeiautos, das von einer Pkw-Fensterscheibe reflektiert wird
Blaulicht eines Polizeiautos, das von einer Pkw-Scheibe reflektiert wird © picture alliance / dpa
Von Lydia Heller · 05.06.2014
"Tundra Freeze" heißt das Programm, mit dem der US-Geheimdienst NSA Gesichter von Bildern identifizieren will, die er massenweise im Internet gesammelt hat. Sogenannte Zielpersonen auf der ganzen Welt können damit ausfindig gemacht werden.
Aus dem gleichen Grund möchte der deutsche Bundesnachrichtendienst in Echtzeit soziale Netzwerke und Internetseiten ausforschen. Beide Meldungen stammen aus dieser Woche - doch bereits seit einigen Jahren arbeiten Forscher an Sicherheitssystemen, die automatisch Überwachungsvideos oder Telefon- und Onlinekommunikation auswerten sollen.
Zwar interessieren sich in erster Linie Geheimdienste für diese Technologien. Aber auch bei Polizei und Strafverfolgungsbehörden hält predictive policing - die vorausschauende Polizeiarbeit - Einzug in den Alltag.
Das Manuskript in voller Länge:
Filmausschnitt / Minority Report – Werbetrailer PreCrime-Projekt:
"Schon im ersten Monat des PreCrime-Programms verringerte sich die Mordrate in Washington DC um 90 Prozent! /
Sie wollten mir in meinem Wagen auflauern./
Er wollte mich vergewaltigen."
"Wir haben das System der Bestrafungen und Gefängnisse erfolgreich abgeschafft. Wie wir alle wissen, haben Strafen einen Täter niemals wirklich abgeschreckt. Und für die, die getötet worden sind, waren sie wohl kaum ein Trost." -- Philip K. Dick, The Minority Report. Kurzgeschichte, 1998
"Und so wurde Blue Crush entwickelt. Crush steht für 'Kriminalitätsreduktion durch statistische Auswertung vergangener Ereignisse'. Wir nutzen die Daten, die wir über begangene Straftaten haben – um vorherzusagen, wo wir als nächstes hingehen müssen."
Larry Godwin, Polizeidepartment Memphis/Tennessee, 2010. Fünf Jahre nach Einführung von Blue Crush. Eine Software auf Basis eines Prognose-Algorithmus von IBM. Sie erstellt in Echtzeit Karten von Verbrechensorten.
"Wir sehen seither einen Rückgang der Kriminalität um 28 Prozent. Und – zeigen Sie mir den Polizisten, der nicht einen Verbrecher fassen möchte!"
Filmausschnitt:
„...denn nur ein Leben in Sicherheit garantiert auch ein Leben in Freiheit. /
PreCrime – es funktioniert! /
es funktioniert!.." (Jubel.)
Es ist eine alte Vision: Wäre es nicht gut, wenn man Terroranschläge und Vergewaltigungen, Morde, Überfälle, Einbrüche und Diebstähle verhindern könnte, bevor sie passieren? Wenn man verhindern könnte, dass ein Mensch zum Täter wird? Und ein anderer zum Opfer?
Atmo: LKA – Schritte im Flur
"Fragen sie mich jetzt nach meiner grundsätzlichen Überzeugung – dann ist die Aufgabe, Kriminalität zu verhüten natürlich viel höher anzusiedeln, als im Nachhinein aufzuklären. Eine aufgeklärte Tat ist schön, eine verhütete ist schöner. Um's mal so auf den Punkt zu bringen."
Landeskriminalamt Berlin, Stabssachbereich 14. Analyse, Statistik, Lagebilder. Arbeitsplatz von Stephan Harnau und Corinna Balke. Kriminalhauptkommissare. Ihre Aufgabe: Crime Mapping.
Corinna Balke: "...habe hier ein Programm, Excel-Anwendung, da kann ich verschiedene Anfragen stellen. Zum Beispiel anzeigen lassen, wo gab es in Berlin wie viele Fahrraddiebstähle."
Stephan Harnau: "Wir steuern ganz gezielt Präventionsmaßnahmen. Und da haben wir in letzter Zeit vermehrt dieses Instrumentarium genutzt, um zu sagen: Das sind die Regionen, da werden wir freie Kapazitäten reinbringen. Das ist dann wirklich der Telefonhörer, den wir in die Hand nehmen und sagen: Die Region, da ist im Moment viel los, dann ist es eine gute Idee, zum Beispiel tagsüber in diesen Bereichen unterwegs zu sein."
+++
Wissen, dass ein Verbrechen geschehen wird. Vorhersehen können, wo und WANN es geschehen wird, wer es begehen wird – und dann: VOR dem Täter am Tatort sein und sein Vorhaben vereiteln: Der alte Traum vieler Polizisten und Kriminalisten scheint heute wahr zu werden. Predictive Policing – die vorausschauende Polizeiarbeit – gehört mehr und mehr zu ihrem Alltag. Die Grundlage: Daten.
Und immer bessere Methoden, Daten zu sammeln, zu verknüpfen und zu analysieren: Personendaten, Telefondaten, Ortsangaben, Tageszeiten. Daten aus internen Polizeidatenbanken, aus Anzeigen über vergangene Straftaten, aus sozialen Netzwerken. Sogar Daten über Wetter und Verkehr.
In den USA – unter anderem in Kalifornien und Texas, Colorado und New Jersey – nutzt die Polizei seit einigen Jahren spezielle Programme, die vorausberechnen sollen, wann und wo demnächst eine Straftat begangen werden könnte. Die Applikation „RTM DX" etwa sucht nach Zusammenhängen zwischen Tatorten und MERKMALEN dieser Orte: Wie viele Taten sind in der Nähe von Bars, wie viele dagegen in der Nähe von Einkaufszentren geschehen? Polizeibeamte entscheiden daraufhin, welchen Hinweisen sie weiter nachgehen wollen.
Sicherheitsforscher aber denken bereits weiter: Sie wollen Daten nicht nur sammeln und auswerten, um zu sehen, in welchen Gegenden mehr Polizeipräsenz sinnvoll sein könnte.
Sondern sie wollen Daten AUCH sammeln und analysieren, um herauszufinden, wie wahrscheinlich es ist, dass ein bestimmter Ort ÜBERHAUPT als künftiger Tatort infrage kommt. Und: Mit welcher Wahrscheinlichkeit eine Person oder eine Gruppe von Menschen IN ZUKUNFT eine kriminelle Handlung begehen könnten. Geforscht wird dafür an einer ganzen Reihe verschiedener Sicherheitssysteme. Eine wesentliche Komponente:
Intelligente Videoüberwachungssysteme zur Prävention von Kriminalität sollen zum einen helfen, potenziell gefährliche Personen zu identifizieren. Etwa durch automatische Gesichtserkennung auf der Basis biometrischer Merkmale. Zum anderen sollen sie in der Lage sein, Bedrohungssituationen im Moment ihrer Entstehung zu erfassen.
"Präventiv heißt da erst mal die Idee: Ein Algorithmus kann in Echtzeit erkennen, dass zum Beispiel eine Schlägerei passiert. Und dann könnte der ein Signal geben: 'Kuck mal hierhin, hier ist gerade was'."
Jens Hälterlein forscht an der Technischen Universität Berlin zu automatisierter Videoüberwachung.
"Wenn man einen Bahnhof hat, wo 50 Kameras hängen, dann müsste man das nicht mehr so machen, dass nach Zufallsprinzip Bilder eingeblendet werden oder alle Bilder von allen Kameras auf dutzenden Monitoren gleichzeitig, wo dann jemand – das wäre jetzt Zufall, wenn der gerade im richtigen Moment auf die richtige Stelle kuckt. Und dieser Algorithmus könnte das dann vordefinieren: Hier passiert gerade was Relevantes und könnte diese Bilder aufschalten. Oder man kann das noch weiter automatisieren – das ist aber rechtlich problematisch – dass dann, wenn etwas detektiert wird, das System automatisch einen Befehl an eine Einsatzeinheit schickt: geht da mal in Sektor 2D oder so."
Zu den Forschungsverbünden, die in der Entwicklung von Technologien zur Identifizierung von Menschen und potenziell gefährlichem Verhalten am weitesten fortgeschritten sind, gehört das europäische Projekt INDECT.
++ Intelligent information system supporting observation, searching and detection for security of citizens in urban environment ++ Intelligentes Informationssystem zur Unterstützung von Überwachung, Suche und Ortung für die Sicherheit von Bürgern in städtischer Umgebung ++
Indect-Forscher arbeiten bereits seit 2009 an Algorithmen, die Bilder von Überwachungs-Kameras auswerten, um verdächtiges – sogenanntes "abweichendes" – Verhalten zu erkennen und vorherzusagen. "Abweichendes Verhalten" definiert das Projekt dabei als Verhalten, das in Zusammenhang mit Straftaten vorkommt, etwa mit Überfällen, Diebstählen oder Kinderpornografie. Oder, das allgemein in Zusammenhang "mit einer Bedrohung" steht.
"Das heißt, wenn man in der U-Bahnstation sitzt und die U-Bahnen sind jetzt schon dreimal vorbeigefahren, dann kann dieses System schon anschlagen. Und sagen: Da sitzt jemand, der könnte was im Sinn haben, was eben nicht dem entspricht, was wir als normales Verhalten bewerten würden."
Die Informatikerin Anna Biselli beschäftigt sich seit fünf Jahren mit der Programmierung von Algorithmen zur Erkennung und Vorhersage von Verhalten. Den Systemen wird dabei entweder durch Programmierer beigebracht, was als „abweichend" erkannt werden soll. Oder – sie werden mit Aufnahmen von "normalen Situationen" trainiert. Mit Bildern, die Menschen zeigen, die sich so verhalten, wie sie es an bestimmten Orten zu bestimmten Zeiten üblicherweise tun: Am U-Bahnhof auf die U-Bahn warten und einsteigen, sobald sie hält, zum Beispiel. Auf diese Weise lernen die Programme selbst, was normal übliches Verhalten in bestimmten Situationen ist – und erkennen, wann jemand davon abweicht.
"Wenn ich am Flughafen bin und lasse meinen Koffer irgendwo stehen, dann ist das ein auffälliges Verhalten. Oder wenn man hin- und herläuft. Oder zu schnell läuft. Im Zweifelsfall kann jeder Jogger, der nicht gerade die Route durch den Park nimmt, wo das Verhalten vielleicht nicht als auffällig bewertet wird, Ziel dieser Verbrechenserkennung werden."
Je mehr Videodaten einem System zur Verfügung gestellt werden, desto genauer lernt der Algorithmus, verschiedene Situationen zu erkennen, zu unterscheiden und zu bewerten.
+++
"Dann kann ich noch weiter reinzoomen, hier in die Karte – dann sehe ich: Die meisten Fahrraddiebstähle geschehen an S-Bahnhöfen."
Landeskriminalamt Berlin, Stabssachbereich 14. Analyse, Statistik, Lagebilder. Zwei Schreibtische, zwei PCs. Auf den Monitoren Karten von Berlin, die Bezirke in verschiedenen Rottönen: Rosa für eine geringe, tiefrot für eine hohe Zahl an Delikten. Fahrraddiebstähle, Taschendiebstähle, Hauseinbrüche. Alle Daten aus Anzeigen. Keine Videobilder, kein Alarm.
Stephan Harnau: "Also wir haben jetzt nicht die große Einsatzleitzentrale, wo wir vor hunderten von riesigen Computerbildschirmen die Lage der Stadt im Blick haben und dann schnell zum Telefon greifen. ..Diese Ideen, die manche haben von den Möglichkeiten, mit Computermodellen, auf Knopfdruck, zu sagen: Da braut sich was zusammen – das brauch ich nicht."
Analysetools helfen, Brennpunkte zu erkennen. Gezielter. Schneller. Aber – wer dann dort zu einer Gefahr werden könnte? Wüssten Polizisten ohnehin. Aus Erfahrung.
Stephan Harnau: "Wenn wir sagen: Am Alexanderplatz möchten wir für Ruhe und Ordnung sorgen, weil wir haben da viele junge Leute, die da feiern, trinken und dann gibt's die entsprechenden Delikte, Körperverletzung und ähnliches, na gut. Dass dann klar ist, dass die Kollegen nicht unbedingt nach dem flanierenden Ehepaar Ausschau halten."
Dennoch: Bundeskriminalamt und Bundespolizei haben sich über Forschungsprojekte informiert, in denen unter anderem Möglichkeiten ausgelotet werden, Bilder aus Überwachungskameras automatisch auszuwerten. Darunter PROACTIVE:
++ Predictive reasoning and multi-source fusion empowering anticipation of attacs and terrorist actions in urban environments ++ Vorausschauende Analyse verschiedener verknüpfter Quellen zur Verhinderung von Anschlägen in städtischer Umgebung ++
Proactive, an dem auch das Bayerische Landeskriminalamt beteiligt ist, soll Terrorattacken vereiteln. Dazu sollen Polizeidaten mit Daten verknüpft werden, die Sensoren aus allen Teilen einer Stadt zuliefern. Die Universität der Bundeswehr München entwickelt dafür einen – nicht näher benannten – "mobilen fliegenden Sensorknoten".
Von üblichen Mustern abweichendes Verhalten erkennen die Systeme bereits ganz gut. Unter Laborbedingungen, mit genau definierten Objekten, Personen und Szenarien.
Jens Hälterlein: "Aber in Praxistests, die wenigen, dies da gab, da passieren dann Fehler wie – da wird dann der Mülleimer als Koffer detektiert. Und dann sind's plötzlich die ganz falschen Personen, die getrackt werden. Es kann zum Beispiel sein, wenn zwei Personen aneinander vorbeilaufen, dass dann eigentlich die Person detektiert werden soll, die von links kommt und nach rechts geht – und in dem Moment, wo die sich überschneiden, das System aber die Person weiterverfolgt, die von rechts kam und nach links geht. Weil wenn diese Person aus Sicht der Kamera hinter einer anderen Person läuft, dann verschmelzen teilweise diese beiden Objekte in der Analyse."
Das Bildmaterial mit den Bewegungsabläufen, Handlungen und Situationen, anhand derer die Algorithmen abweichendes Verhalten erkennen lernen sollen, stammt aus Datenschutzgründen zudem nur selten von echten Überwachungskameras. Oft stellen Testpersonen nach, wie es aussieht, wenn jemand auf dem Bahnhof ein Gepäckschließfach aufbricht. Oder Schauspieler simulieren eine Schlägerei.
"Dann erzeugt man Videomaterial und versucht typische Bewegungsmuster heraus zu filtern, von denen man annimmt, dass die passieren, bei einer Schlägerei. Wo fraglich ist: Wenn man sowas simuliert, sieht das dann genauso aus, wie eine echte Schlägerei? Eigentlich will man Material erzeugen, wo ein Algorithmus versteht, wie sowas durchschnittlich aussieht. Eigentlich müsste man aber vorher, wenn man Szenarien simuliert, schon wissen, wie sieht sowas durchschnittlich aus. Es kommen die Vorstellungen der Leute, die sowas simulieren, da mit rein."
Verfahren zur Gesichtserkennung, um Menschen auf Bildern und in Videos – möglichst in Echtzeit – anhand biometrischer Merkmale zu identifizieren, sind bereits fortgeschrittener.
„Wo Biometrie angewendet wird de facto, ist an Flughäfen, bei Einlass- oder Durchlass-kontrollen. Da werden die Leute ..angehalten und müssen dann für ein paar Sekunden gerade in eine Kamera kucken. Das System, hat die Möglichkeit, die unter optimierten Bedingungen von vorne zu erfassen, die Gesichter, und dann mit einer Datei abzugleichen, wo man zum Beispiel über die neuen Reisepässe biometrische Daten hat."
Unter solchen optimierten Bedingungen können Personen bereits bis zu 95 Prozent genau identifiziert werden. Unter realen Bedingungen sind die Systeme bisher nur wenig getestet worden. Und wenn, erkannten sie kaum ein Drittel der Testpersonen richtig. Bei Dunkelheit, Gegenlicht oder wenn die Versuchspersonen sich zu sehr bewegen, sind die Videobilder oft kaum für den Abgleich mit biometrischen Datenbanken nutzbar.
"Was aber gerade ein Forschungsgegenstand ist, wo auch Facebook daran arbeitet: zu erreichen, dass man aus schlechten Gesichtsdarstellungen ein Idealgesicht rekonstruiert, um das dann besser mit der Datenbasis abgleichen zu können."
"DeepFace" generiert zunächst ein dreidimensionales Modell eines Gesichts und daraus eine Frontalansicht. Damit kann DeepFace zwar dem Gesicht noch keinen Namen zuordnen – kann aber bereits fast genauso treffsicher wie ein Mensch beurteilen, ob auf zwei beliebigen Bildern dieselbe Person abgebildet ist. Die Technische Universität Berlin entwickelt unter anderem intelligente Kamerasysteme, die auch in großen, bewegten Menschenmengen Personen erkennen können.
"Was immer auch kritisch ist, ist die Datenbasis. Man braucht erstmal genug Daten, um eine zuverlässige Erkennung zu ermöglichen. Es ist nicht ideal, wenn man von jeder Person nur ein Gesichtsfoto hat. Weil die Person sich auch verändern kann."
Sicherheitsbehörden arbeiten bereits an gigantischen Datenbänken: Um die 16 Millionen Bilder von mindestens sieben Millionen Menschen soll das amerikanische FBI bereits in einer Datenbank gespeichert haben, die zum Next Generation Identification Project gehört. Schon seit 2009 wird im Rahmen des Projekts an Software gearbeitet, die diese Bilder dann mit Fotos und Material aus Überwachungskameras abgleicht. Außer Gesichtsbildern werden weitere biometrische Informationen gespeichert: Irisscans, Fingerabdrücke, Sprachdaten.
Zum europäischen Gegenstück könnte sich Eu-LISA entwickeln, die Europäische Agentur für IT-Großsysteme – unter deren Dach schon jetzt Informationssysteme der Polizei mehrerer europäischer Länder gemeinsam verwaltet werden: darunter die Europäische Fingerabdruckdatenbank Eurodac und das Schengener Informationssystem. Hier werden schon jetzt Fotos, DNA-Proben und andere Daten über Personen gespeichert, die in Europa gesucht werden. Oder die – wie es heißt – „überwacht oder kontrolliert werden müssen, weil es mutmaßliche Gründe gibt, dass sie zukünftige Straftaten begehen könnten".
"Wenn ich noch weiter reingehe, kann ich erkennen: S-Bahnhof Treptower Park..."
Landeskriminalamt Berlin, Stabssachbereich 14. Analyse, Statistik, Lagebilder. Polizeialltag. Fahrrad- und Taschendiebstähle, Hauseinbrüche, Randale. Massendelikte. Relevante Informationen? Drehen sich um Taten:
„Wo hat die Tat stattgefunden, Tageszeiten, Modus Operandi. Das geht relativ detailliert. Wir können dann fragen: Was passiert eher nachts? Gibt es Modus Operandi, die in bestimmten Regionen festgestellt werden? Diese Daten können wir recht gut analysieren."
Und Daten zu Tätern? Hier eher wenig hilfreich:
"Es gibt natürlich auch Möglichkeiten, mit operativer Fallanalyse vorzugehen. Es gibt Profiling, das ist wichtig. Es gibt Serientäter, die schwerste Sexualdelikte begehen oder sowas. Wenn man sowas hat, ..da gibt es dann Funkzellenauswertung, Telefonüberwachungsmaßnahmen, das muss gerichtlich bestätigt werden. Aber dann in Einzelfällen.
+++
In Einzelfällen – bei einem konkreten Tatverdacht und nach einer richterlichen Genehmigung können bereits jetzt Daten aus mehreren Quellen herangezogen und ausgewertet werden – um Annahmen über künftiges Verhalten zu treffen: Wo sich ein Täter wohl demnächst aufhält, wen er trifft, was er plant.
Datenschützer befürchten jedoch, dass es bei Einzelfällen nicht bleiben wird. Zwar erlaubt die Gesetzeslage der Polizei derzeit nicht ohne weiteres, Daten verschiedener Datenbanken zu verknüpfen. Und das BKA weist ausdrücklich darauf hin, dass es durch Datenanalyse „ohne Anlass kein neues Wissen herstellen" wolle. Dass also Daten NICHT durchsucht werden sollen, um Verdachtsmomente zu generieren. ABER: die Behörde informiert sich bereits über Programme, die eben dies können: große Datenbestände auf bestimmte Muster hin durchsuchen – und daraus Verhaltensprognosen ableiten. Bestandteil von Systemen wie Indect oder Proactive etwa ist neben intelligenter Videoüberwachung:
++ Auswertung von Metadaten aus Handykommunikation, Data- und Text-Mining ++
"Metadaten sind ja Daten: mit wem ich telefoniere, zu welcher Zeit, wem ich eine Email schicke, zu welcher Zeit, wo ich mich gerade in eine Funkzelle eingewählt habe, von welchen IP-Adressen ich Webseiten besuche."
Informatikerin Anna Biselli: "Das heißt, wenn ich bei einer Drogenberatungsstelle anrufe, dann ist klar, dadurch, welche Nummer ich wähle, dass ich gerade mit der Drogenberatungsstelle telefoniere. Und wenn ich mich dann noch an Ärzte wende, ist relativ klar, dass ich damit ein Problem habe. Das sind Muster, die man aus den Metadaten einfach ableiten kann."
Anfang dieses Jahres erlaubt die dänische Bildungsministerin Sofie Carsten Nielsen einer Zeitung vollen Zugriff auf ihre Kommunikationsdaten: auf Verbindungsdaten ihres Handys, auf Emails und Facebook-Aktivitäten, auf Daten ihres Fitnesstrackers, Kreditkartendaten, Daten vom Finanzamt. Das Ergebnis: es kann nachvollzogen werden, welche Facebook-Freunde die Politikerin hat und welche Anfragen sie lieber ablehnt. Man weiß, wann sie joggen geht, wie lange und welche Strecke sie gewöhnlich läuft – was sie kauft, ob sie Schulden hat und bei wem – was sie liest. Es entsteht ein klares Bild ihres Alltags.
"Man kann sagen, dass die Person in Funkzelle soundso drei Anrufe entgegen genommen hat und fünf gesendet hat, zwischen acht und neun Uhr. Das heißt, man weiß relativ genau, die Person hat sich an einem bestimmten Ort aufgehalten. Wenn man dann noch andere Informationen hat, zum Beispiel, wo diese Person arbeitet, kann man davon ausgehen, die Person war auf Arbeit. Man kann auch schauen, wo die Person wohnt. Wenn die Person auf Reisen ist, kann nachverfolgt werden, wohin ich reise – und ermittelt werden: Wie ist mein normaler Tagesablauf, weiche ich gerade von meinem Tagesablauf ab?"
Algorithmen können solchen Daten Persönlichkeitsstrukturen zuordnen. Und – sie können Annahmen darüber treffen, was dieser Mensch demnächst tun wird.
++ Viele Anrufe selbst initiiert: extrovertierte Person. Vorhersagegenauigkeit: 61 Prozent. ++ Anrufe werden regelmäßig beantwortet: gewissenhafte Person. Vorhersagegenauigkeit: 51 Prozent ++ Studie des Media Lab am Massachusetts Institute of Technology, 2013 ++
Entdeckt ein Sicherheitssystem im Kommunikationsverhalten eines Menschen bestimmte Abweichungen oder Auffälligkeiten, dann können Telefongespräche, Mails, Blogs oder Tweets auch inhaltlich ausgewertet werden. Etwa, wenn die Datenanalyse ein Muster ergibt, das dem von Personen ähnelt, die als kriminell, extremistisch oder terrorverdächtig gelten.
"Beispielsweise haben wir uns den Blog der Islambrüderschaft in Deutschland angeschaut und da findet man Verbindungen wie Allah und Krieg oder Bedeutung und Dschihad. Das sind Wortverbindungen, die in Sätzen der Bruderschaft statistisch signifikant vorkommen."
Joachim Scharloth, Professor für angewandte Linguistik an der Technischen Universität Dresden, hat ein Programm entwickelt mit dem Texte inhaltlich analysiert werden können.
"Wenn man diese Wortverbindungen in anderen Texten findet, dann kann man mit einer gewissen Wahrscheinlichkeit sagen: Dieser Text ist womöglich auch ein Text, der sich mit einer extremen Form des weltanschaulichen Islam identifizieren lässt."
Innerhalb weniger Minuten lassen sich per computerlinguistischer Analyse Texte und deren Urheber – beispielsweise – einem bestimmten politischen Spektrum zuordnen. Niemand muss die Texte dafür wirklich lesen. Und: das Programm erlaubt auch Aussagen darüber, wie radikal jemand seine Ansichten vertritt.
"Aus der soziologischen Forschung wissen wir, dass es in Radikalisierungsprozessen Muster gibt. Dass eine stark negative Weltsicht ein Faktor ist, dass hohe emotionale Involviertheit ein Kriterium ist. Und ..zum Beispiel eine negative Weltsicht kann ich ..in linguistische Kategorien übersetzen. ..Ich nehme alle negativ wertenden Adjektive, die in der Linguistik beschrieben sind – abartig, abgedroschen, abnorm und so weiter – und zähle die. ..Und wenn man für jede dieser Dimensionen operationale Begriffe hat, kann man behaupten, wenn ich diese Merkmale in Texten finde, dann ist die Person, die das schreibt, radikalisiert."
Es nicht bekannt, ob die Software der Sicherheitssysteme auf genau diese Weise arbeitet. Aber: dass sich Bundeskriminalamt und Bundespolizei für Sicherheitssysteme interessieren, die Webseiten und Soziale Medien auch inhaltlich auswerten sollen, ist kein Geheimnis. Das BKA etwa beobachtet Forschungen zum Projekt CAPER.
++ collaborative information acquisition, processing, exploitation and reporting for the prevention of organized crime ++ Gemeinschaftliche Beschaffung, Verarbeitung, Verwertung und Meldung von Informationen zur Prävention organisierter Kriminalität ++
CAPER will Daten aus sozialen Netzwerken und von Webseiten so mit Polizeidatenbanken verknüpfen, dass neue Zusammenhänge und „besondere Ereignisse" sichtbar werden. Das System soll vor allem organisierte Kriminalität aufspüren. Und: es soll helfen, sogenannte „Gefahrenabwehranlässe" zu erkennen.
+++
Landeskriminalamt Berlin, Stabssachbereich 14. Analyse, Statistik, Lagebilder. Fahrrad-diebstähle, Einbrüche. Polizeialltag. Daten aus Telekommunikationsüberwachung? Kein Zugriff. Handyortung? Email- und Social Media-Daten? Irrelevant.
"Würden wir diese ganzen Daten hier haben und sagen, dann finden wir irgendwas raus, dann würden wir an die technischen Grenzen kommen. Aber selbst wenn wir die besseren Computer hätten, würden wir in der Datenflut untergehen. Bitte lasst das Unwichtige weg! Das ist manchmal der wichtigere Analyseschritt als zu sagen: je mehr Daten, desto besser."
Bisher hat die Bundesregierung nicht geprüft, ob es in Deutschland rechtlich überhaupt möglich wäre, mit Systemen wie PROACTIVE oder CAPER Daten verschiedener Quellen zu verknüpfen. Sie nach Hinweisen auf künftige Verbrechen zu filtern und dann Maßnahmen zu ergreifen, um diese – proaktiv – zu verhindern. Auf EU-Ebene analysieren Forscher derzeit die Gesetzeslage der Mitgliedsländer und suchen nach Wegen, sie mit den neuen Technologien zu: "synchronisieren".
Das Bundeskriminalamt betont, dass es kein umfassendes, vorausschauendes Data Mining betreibt. Dass Datenanalyse immer an einen konkreten Anlass gebunden ist und nur jeweils bestimmte Abteilungen auf bestimmte Daten zugreifen können. Aber: Auch wenn noch kein automatisiertes Profiling stattfindet, wenn es für die Polizei noch nicht zum Alltag gehört, in Daten nach Mustern zu suchen und Wahrscheinlichkeiten für künftige Risiken abzuleiten: Es gibt bundesweit verbundene Datenbanken, die Datenmenge darin wächst und es gibt Software, die hilft, sie auszuwerten:
"Sie erlaubt es, Personen, Räume, Ereignisse in Beziehung zu setzen, man kann.. Querbeziehungen ausfindig machen. Und davon Thesen ableiten, die man überprüfen kann. Man hat Zugriff auf viele Informationen, kann die auswerten und Strukturen feststellen, die in ihrer Komplexität durch einen klassischen Ermittler kaum zu erfassen wären."
Die Soziologen Niklas Creemers und Daniel Guagnin von der Technischen Universität Berlin haben die Rolle von Datenanalysen für Strafverfolgungsbehörden in Deutschland untersucht.
"Wenn Zusammenhänge erstmal vorhanden sind, dann werden sie wahrgenommen und überprüft. Und das ist spannend, weil sich dadurch was verändert. Selbst unverdächtige Dinge können einem verdächtig erscheinen, wenn man den richtigen Blick darauf wirft."
Und dieser Blick wird mehr und mehr von Algorithmen beeinflusst. Selbst dann, wenn ein Mensch das letzte Wort behält, die letzte Entscheidung zu verantworten hat: Er wird sie zunehmend aufgrund von Fakten getroffen haben, die ein Programm vorausgewählt hat und die als Ergebnis einer Datenanalyse ganz objektiv erscheinen. Aber:
"Letztlich sind Algorithmen in Maschinencode gegossene Vorurteile, die wir schon haben."
Jens Hälterlein: "In die Programmierung dieser Systeme gehen immer Normalitätsvorstellungen ein. Über Kriminalität und abweichendes Verhalten, normales Verhalten. Das können Vorstellungen sein, die ad hoc definiert werden. Aber auch Vorstellungen, die aus empirischen Daten extrahiert werden. Das ist aber auch nicht objektiv, weil diese Daten nie alle Kontexte, Situationen abbilden, sondern ein Datensatz immer ein Ausschnitt der Wirklichkeit ist."
Wie verhält man sich normalerweise im Park oder auf einem Bahnhof? Was unterscheidet einen Überfall von einer Umarmung oder einen Hilfe- von einem Freudenschrei? Anhand welcher Wörter und Wortverbindungen erkennt man valide, wie radikal jemand welche politische Überzeugung vertritt?
Scharloth: "Da gibt's viel zu wenig Forschung dazu. Weil es ist viel bequemer zu sagen: Wir haben große Datenmengen und wir finden darin Muster. ..Es gibt noch keine Forschungsethik von social big data. Aber: sobald Strafregime dahinter stecken, die Rechte einschränken können, wenn Identitäten zugeschrieben werden, auf der Basis von solchen Analysen, dann muss man sich schon fragen: was ist erlaubt, was ist nicht erlaubt, wann kann man eine Aussage machen, wann kann man keine Aussage machen."
Polizisten sollten sich dessen bewusst sein. Wissenschaftler und Programmierer auch. Denn sie werden in Zukunft zum erweiterten Kreis der Ermittler gehören.