Anzeige
Anzeige

Bei den G20-Ermittlungen probt die Polizei die Totalüberwachung

Mit intelligenter Videotechnik wertet die Behörde 100 Terabyte an Videomaterial aus – aus Bahnhofskameras, sozialen Medien und privaten Kameras.

von Laura Meschede
|
20 September 2018, 11:40am

Symbolbild: imago | Jochen Tack

Wenn die Hamburger Polizei wissen will, was ich letzten Sommer getan habe, muss sie nur in ihre neue Software schauen.

Vermutlich könnte die Polizei so von jedem Menschen, der sich zwischen dem 6. und 10. Juli 2017 in Hamburg aufgehalten hat, herausfinden, was er oder sie in dieser Zeit getan hat. Sie hat nämlich Videos davon. Ziemlich viele Videos: 100 Terabyte.

Anzeige

Diese Videos werten die Beamten mit einem Programm zur automatisierten Gesichtserkennung aus. Das kann man unter anderem in dem Ende August veröffentlichten Bericht des Hamburgischen Datenschutzbeauftragten nachlesen. Die Polizei nutzt dabei nicht nur Videos, auf denen Straftaten zu sehen sind. Sondern alle Videos, die sie bekommen konnte, die "einen örtlichen und zeitlichen Zusammenhang" zu den Protesten gegen G20 aufweisen – auch wenn darauf nur Spaziergänger zu sehen sind. Videos aus S-Bahnhöfen, aus sozialen Medien, aus Privatkameras.

17 Terabyte Videomaterial hat die Polizei davon bislang bearbeitet, darunter beispielsweise die gesamten Aufnahmen einiger S-Bahnhofskameras. Das heißt: Jeder Mensch, der irgendwann in den fünf Tagen der Gipfelproteste mal an einer Kamera vorbeigegangen ist, läuft Gefahr, dass sein Gesicht biometrisch bearbeitet wird. Vor allem wenn er in der Innenstadt unterwegs war.

Es ist der erste große Einsatz einer Technologie, auf die schon lange hingearbeitet wird. Und es wird nicht der letzte gewesen sein. Die Ermittlungen gegen die G20-Gegner sind die Generalprobe zur Dystopie.

Die Software, die die Hamburger Polizei für ihre Analyse verwendet hat, scheint technisch noch nicht ganz ausgereift zu sein: Drei Personen, das ist das Ergebnis einer Kleinen Anfrage an den Hamburger Senat, sind bislang durch die Gesichtserkennungs-Software identifiziert worden. Gemessen am Aufwand kein besonders beeindruckendes Ergebnis.

Aber das spielt keine Rolle. Was in den G20-Ermittlungen geprobt wird, ist nämlich nicht nur die Technik, sondern vor allem die Akzeptanz: Kommt die Polizei damit durch, wenn sie sich eigenständig die Befugnis zuspricht, die Gesichter von Tausenden Menschen biometrisch zu verarbeiten?

Was gefilmt werden kann

"Intelligente Videoerkennung" ist ein Versprechen. Sie verspricht enorme Informationsmengen – und Kontrolle. Deswegen wird seit Jahren intensiv an ihr geforscht. Weltweit und in Deutschland.

Anzeige

Im Fokus stehen dabei zwei Fähigkeiten der intelligenten Videotechnik: das Erkennen von Verhalten und das Erkennen von Menschen.

Was es bedeutet, wenn eine Software beides kann, kann man in China beobachten. Dort wurden letztes Jahr an verschiedenen Ampeln Kameras mit automatisierter Gesichtserkennung installiert. Diese Kameras identifizieren Menschen, die bei Rot über die Ampel laufen – und schicken die Daten an die nächste Polizeistation. Da bleiben sie aber nicht: 20 Minuten später sind die Fotos der "Täter" zurück an der Ampel, wo sie samt Namen und Adressen der bei-Rot-über-die-Ampel-Geher öffentlich auf einem Bildschirm gezeigt werden. "Um die Verkehrssünder mit ihrem Gesetzesbruch zu beschämen", wie die chinesische Zeitung China Daily schreibt.


Aus dem VICE-Netzwerk: Mit diesen Technologien werden New Yorker auf Schritt und Tritt überwacht


In China gibt es rund 176 Millionen Kameras mit Gesichtserkennung. Kameras stellen dort sicher, dass Toilettenbesucher kein Klopapier klauen; Kameras sorgen dafür, dass Menschen die U-Bahn nicht mehr betreten können, wenn sie dort mal Ärger gemacht haben, und Kameras erkennen, wer sich an der Supermarktkasse vordrängelt. Ein BBC-Reporter hat letztes Jahr mal getestet, wie lange es ihm gelingt, sich trotz all dieser Kameras unerkannt durch die Straßen zu bewegen: sieben Minuten.

Anzeige

Wenn einmal beschlossen wurde, dass man Kameras mit Verhaltenserkennung und Gesichtserkennung nutzen will, dann ist die einzige Frage, die noch bleibt: Welches Verhalten soll sanktioniert werden? Soll die Software nur die Menschen der Polizei melden, die jemanden zusammenschlagen, oder auch die, die gerade eine Wand ansprayen? Die einen Joint rauchen? Die bei Rot über die Ampel gehen?

In Deutschland ist noch nicht beschlossen, dass beide Funktionen genutzt werden sollen. Aber der politische Wille ist da.

Am Berliner Südkreuz hat das Innenministerium vom 1. August 2017 in zwei Pilotphasen zuerst die Gesichtserkennung und danach die Mustererkennung getestet. In der ersten Phase sollten die Kameras automatisiert die Gesichter von Testpersonen erkennen, in der zweiten Phase “ungewöhnliches Verhalten“. Also zum Beispiel, ob es eine unerwartete Menschenansammlung gibt, zu welchem Fahrgast welches Gepäckstück gehört oder ob eine Person am Boden liegt – über letztere Funktion werden Obdachlose sich potenziell weniger freuen als Herzinfarkt-Patienten.

In Mannheim wurden im September 2018 die ersten Kameras für eine "intelligente Videoüberwachung" der Stadt installiert. Die Mannheimer Kameras sollen Bewegungen erkennen können, die auf ein Verbrechen hinweisen – eine Prügelei beispielsweise. Gesichter erkennen dürfen sie nicht.

Anzeige

Aktuell finanziert das Forschungsministerium mit 2,1 Millionen Euro die Entwicklung des Projekts S2UCRE. Ein Programm, das zur Analyse von Massenansammlungen gedacht ist. Es soll mittels Videoanalyse das Verhalten von Menschenmassen vorausberechnen und so beispielsweise Massenpaniken und Straftaten erkennen können, bevor sie passieren. S2UCRE ist ein deutsch-französisches Projekt. In Frankreich sollen seine Kameras auch einzelne Demonstrationsteilnehmer erkennen können. Vorbestrafte, beispielsweise. In Deutschland, so sagt das zuständige Institut, werde diese Funktion deaktiviert. Weil sie nicht rechtskonform ist.

Wie viel Gesichtserkennung ist erlaubt?

Rechtlich steht dem politischen Willen zur Verhaltensausforschung vor allem entgegen, dass man nicht einfach so die Gesichter von Menschen biometrisch verarbeiten darf: Videotechnik mit Gesichtserkennung ist im großen Maßstab nicht legal.

Oder?

Am Wochenende des G20-Gipfels habe ich für VICE von den verschiedenen Demonstrationen gegen den Gipfel berichtet. Wenn mein Gesicht auf einigen der Videos drauf war, die die Polizei bislang bearbeitet hat, heißt das: Die markanten Punkte meines Gesichts wurden von einer Software identifiziert und gespeichert. Und damit die Möglichkeit geschaffen, mich auf jedem anderen Video wiederzuerkennen.

Wenn die Polizei wollte, könnte sie also versuchen, meinen Weg durch die Stadt nachzuvollziehen; könnte versuchen, herauszufinden, mit wem ich mich unterhalten habe, wo ich meinen Kaffee gekauft habe und wie lange ich geschlafen habe.

"Kriminaltechnisch erschließt sich den Strafverfolgungsbehörden damit eine neue Dimension staatlicher Ermittlungs- und Kontrolloptionen", schreibt der Hamburgische Datenschutzbeamte. "Überall dort, wo Bildmaterial des öffentlichen Raumes zur Verfügung steht, kann es künftig zu einer umfassenden Profilbildung von Menschen kommen."

Anzeige

Die Bilder, die symbolisieren sollen, dass "harte Maßnahmen" nach den Protesten gegen den G20-Gipfel angebracht seien, sind die von brennenden Autos und fliegenden Steinen. Im Juristendeutsch: Sachbeschädigung an Kfz und (versuchte) gefährliche Körperverletzung.

2016, im Jahr vor dem G20-Gipfel, hat die Hamburger Polizei in mehr als 7.000 Fällen wegen "Sachbeschädigung an Kfz" und in fast 6.000 Fällen wegen gefährlicher Körperverletzung ermittelt. Wenn diese Vergehen die Grundlage für die biometrische Erfassung von Verdächtigen und Unbeteiligten bilden sollen, dann hat die Analysesoftware in Hamburg in Zukunft viel zu tun.

Kamera für Kamera zur Totalüberwachung

Anzeige

Ich glaube nicht, dass die Polizei morgen massenhaft biometrische Daten erheben und unser aller Gesichter in einer Datenbank speichern wird. Ich glaube, das macht sie übermorgen.

Dann, wenn die Technik auch halten kann, was sie verspricht. Wenn die rechtlichen Grundlagen geschaffen sind. Und die Kameradichte noch höher ist als heute.

Die Möglichkeiten für den dauerhaften Einsatz von intelligenter Videotechnik werden immer besser. Seit 2016 bauen die Deutsche Bahn und der Bund mit 85 Millionen Euro die Videoüberwachung an Bahnhöfen und in Zügen aus. 2017 hat die Bundesregierung ein Gesetz verabschiedet, das es privaten Betreibern erleichtern soll, Videokameras an öffentlichen Orten aufzustellen. Von "intelligenter Videoüberwachung" hat bei diesen Beschlüssen niemand gesprochen.

Aber in den G20-Ermittlungen haben private Videos und Aufzeichnungen aus Bahnhöfen eine große Rolle gespielt.

Um die Gesichter von Menschen auf Kameras zu erkennen, muss man zunächst wissen, wie sie aussehen. Im Juli 2017 hat die Bundesregierung beschlossen, dass Polizei und Geheimdienste fortan automatisiert die biometrischen Lichtbilder aller Bundesbürger abrufen dürfen, die im Personalausweis- und im Passregister gespeichert sind. Auch bei diesem Beschluss hat niemand von "intelligenter Videoerkennung" gesprochen. Aber weil automatisierte Gesichtserkennung viel einfacher wird, wenn man Zugriff auf die biometrischen Passbilder aller Bürger hat, waren Datenschützer trotzdem alarmiert. Die "Gesellschaft für Freiheitsrechte" hat im Juli 2018 Verfassungsbeschwerde gegen das Gesetz eingelegt.

Wie weit weg aber ist die Totalüberwachung?

Das hängt auch davon ab, ob die Polizei zu Ermittlungszwecken mal eben die Gesichter Tausender Menschen biometrisch verarbeiten darf. Davon, ob die Polizei das darf, was sie jetzt in den G20-Ermittlungen tut.

Der Hamburger Datenschutzbeauftragte findet: Das darf sie nicht. "Keine Rechtsgrundlage (...) ersichtlich", steht über seiner Pressemitteilung zum Thema.

Wird die Polizei Hamburg die Videoanalyse deswegen stoppen?

Auf eine diesbezügliche Anfrage an die Pressestelle der Polizei erhalte ich nur den Verweis auf das Ergebnis einer Kleinen Anfrage von Anfang August: Das LKA Hamburg werde die Videoauswertungs-Software "auch künftig” einsetzen. Sie bewerte sie als "rechtskonform".

"Auch künftig", das heißt: auch nach den G20-Ermittlungen.

Die Videoanalyse der "SOKO Schwarzer Block” ist eine Probe. Die Generalprobe: Können wir eine große Gruppe Menschen mit automatisierter Gesichtserkennung überwachen, ohne dass es breiteren Widerstand dagegen gibt?

Aktuell sieht es aus, als würde die Probe ein Erfolg.

Folge VICE auf Facebook, Instagram und Snapchat.

Mehr von vice