Der ´Sicherheitsbahnhof´

Am Bahnhof Südkreuz wird ein Pilotprojekt vom Bundesministerium des Inneren, dem Bundeskriminalamt, der Deutschen Bahn und der Bundespolizei zur 'intelligenten' Videoüberwachung durchgeführt. Die neue Videoüberwachungssoftware mit digitaler Gesichts- und Verhaltenserkennung soll Menschen anhand biometrischer Daten identifizieren und bei Verdacht in der Lage sein, eine Person vollständig automatisiert über mehrere Kameras hinweg zu verfolgen. Im Zeitraum von August 2017 bis Juli 2018 findet in einem ausgeschilderten Bereich der erste Test statt.

Die Ergebnisse des Pilotprojekts werden entscheidend sein für den Ausbau und die Entwicklung intelligenter Kamerasysteme. Es lässt sich damit in den Prozess der zunehmenden Automatisierung von (Video-)Überwachung durch den Einsatz neuer Technologien einordnen.

Unsere Kritik


An Videoüberwachung im Allgemeinen ...

Ein falsches Sicherheitsgefühl wird erzeugt

Wie diverse Studien belegen, schützen Kameras nicht vor Gewalttaten. Lediglich bei Sachschaden ist ein Rückgang, bzw. eine Verlagerung erkennbar. Die Ergebnisse der Studien mögen zwar überraschen, da durch die Medien und vor Allem durch die Politik Überwachung immer wieder als Allheilmittel zur Prävention von Gewalt angepriesen wird. Es lässt sich aber recht einfach erklären wo die Probleme dabei liegen:

  • Affekthandlungen, wie eine aus einem Streit entstandene Schlägerei, entstehen unabhängig von dem Ort und lassen sich nicht verhindern.

  • Terroristische Anschläge werden meist von Tätern begangen, die sich durch staatliche Repression nicht einschüchtern lassen. Zudem kommt hinzu, dass die Kameras und somit entstehende Bilder zur Inszenierung ihrer Taten beitragen.

  • Geplante Gewalttaten können trotz Kameras durchgeführt werden, da diese bei der Planung bedacht werden. Die Täter schützen sich entweder gegen diese Überwachung (ein Halstuch reicht dabei bei aktueller Technik vollkommen aus), oder sie lauern ihren Opfern einfach an kamerafreien Orten auf.

Wir wollen damit nicht Absprechen das Kameras bei vielen Menschen ein Gefühl der Sicherheit erzeugen und sehen auch das es im Einzelfall zur Verhinderung und Aufklärung von Gewalttaten führt. Es bleibt aber ein Ansatz an falscher Stelle mit fatalen Folgen.

Die Daten sind niemals sicher

Die Daten, welche erhoben und gespeichert werden, bergen ein hohes Risiko. Denn es gibt keine absolute Sicherheit dafür, dass diese Daten nicht von Dritten gelesen werden können wie zum Beispiel durch Hacker, welche die Informationen stehlen, oder aber auch durch (un)freiwillige Kooperation mit ausländischen Geheimdiensten.

Die Infrastruktur kann missbraucht werden

Egal unter welchem Vorwand die Überwachungstechnologien durch die Regierung ausgebaut werden. Es gibt keine Garantie dafür das diese Infrastruktur nicht in Zukunft entgegen dem verwendet wird. Zum Beispiel zur Verfolgung politischer Oppositioneller. Dabei muss es nicht die aktuelle Regierung sein, aber für zukünftige Machthabende stehen die Werkzeuge zur Verfügung und können beliebig eingesetzt werden. Bei einem Rechtsruck wie wir ihn gerade erleben geben wir somit dem Staat noch effizientere Mittel um Abschottung, Abschiebung und Diskriminierung. Zudem darf die Gefahr einer Übernahme und Nutzung der Struktur durch die Geheimdienste fremder Staaten auch nicht außer Acht gelassen werden.

Das Soziale Verhalten leidet darunter

Wer sich beobachtet fühlt verstellt sich. Wir wollen vor den Augen fremder nicht allzu auffällig Handeln da wir so unseren Ruf in der Gesellschaft gefährden. Um also nicht negativ aufzufallen, passen wir unser Verhalten konform eines Gesellschaftlichen Ideals an. Was uns dazu bringt ist der soziale Druck, welcher auf seine subtile Art die stärkste Form der Kontrolle ist. Dies muss zunächst nichts schlechtes heißen und ist ein verständlicher Mechanismus der Gesellschaft um vermeintlich schädliches Handeln zu unterbinden. Streitbar ist natürlich ob das aktuelle gesellschaftliche Ideal an dem wir gemessen werden ein Vernünftiges ist. (Heute wird der Fokus in der Bewertung einer Person vor allem auf deren Leistung und Verwertbarkeit gesetzt.) Das Einsetzen von Überwachungstechnik (vor allem Kameras) verstärkt diesen Effekt nicht nur wegen der dauerhaften Präsenz. Es treten auch Effekte auf, die unabhängig von unsere Bewertung des aktuellen gesellschaftlichen Ideals negative Folgen haben.
Zum einen wird mit einer Kamera und der dahinter stehenden Auswertung durch den Staat viel deutlicher als sonst das falsch Bild suggeriert, das gesetzestreues Handeln deckungsgleich wäre mit dem einhalten gesellschaftlicher Werte. Was dadurch zu beobachten ist nennt sich 'Chilling Effect' und ist psychologisch gut erforscht. Der Chilling Effect führt zu konformen Verhalten und Risikoscheue.
Des weiteren wird durch moderne Analysetechnik die Bewertung unseres Handeln von einem Computer übernommen und ins digitale Übertragen. Was entsteht ist ein digitaler Ruf, dem aber entscheidende Mechanischem des analogen Rufs fehlen. So werden alle unsere Handlungen aufgezeichnet, analysiert und fließen in unsere Bewertung mit ein. Was fehlt ist die Option des Vergessens oder des Vergebens. (Auch wenn von staatlicher Seite immer wieder versichert wird das nach bestimmten Fristen Daten gelöscht werden, so hören wir doch ständig von Fällen in denen dies nicht der Fall ist.) Die Zugänglichkeit zu der Information über eine Person ist auch eine andere. So muss ich im analogen eine Person indirekt über ein paar Ecken kennen um von ihren Ruf zu erfahren. (Lokale Begrenztheit) Ich habe also selber eine Verbindung zu der Person und kann die Information nochmal verifizieren. Im digitalen sind diese Informationen über eine Person jedoch zentral gespeichert. Die Abfrage dieser Information kann entweder einem exklusiven Kreis an Personen vorbehalten sein, oder quasi für alle (ggf. gegen Geld) zur Verfügung stehen. Eine reale Verbindung zu der Person ist nicht mehr nötig. Auch kritisch ist die Tatsache das die Bewertung zunächst bei einem Algorithmus liegt und nicht wie in der realen Welt bei vielen sich korrigierenden Individuen. Und die Vorstellung das dieser eine Algorithmus dann wenigstens neutral agiert ist nicht realistisch in Anbetracht der Tatsache das die Entwicklung in der Hand einiger weniger Personen liegt, welche ihr eigenes Weltbild (auch ungewollt) mit einbringen. Und es sollte nicht vergessen werden, das über den Einsatz immer noch ausschließlich die Machthabenden bestimmen.
Auch wenn diese eben aufgezählten Charakteristika des gesellschaftlichen Rufs im Digitalen wegfallen, so bleibt doch der dadurch entstehende Druck bestehen. Wir werden also einer Kontrolle unterworfen, welche ihren ursprünglichen Kern, der ein natürlicher Mechanismus des sozialen Miteinander ist, verloren hat. Die langfristigen Auswirkungen auf die Gesellschaft sind ein Anpassen des Verhaltens an die Bewertungskriterien auch 'Social Cooling' genannt.

Diskriminierung und Kriminalisierung werden verstärkt

Die Bewertung des Verhaltens einer Person durch das Wachpersonal erfolgt lediglich über die Bilder, welche von der Kamera geliefert werden. Diese können nie eine Abbildung der Realität sein, sondern nur ein begrenztes Bild der Situation. Das Wachpersonal muss dadurch stundenlang das Geschehen beobachten und soll möglichst schnell reagieren. Das heißt aus der Unmengen an Bildern entscheiden welches genauer betrachtet werden muss. Das bei sinkender Konzentration die Auswahl auf leicht erkennbare Merkmale reduziert wird ist logische Konsequenz dieser Praxis. Dass diese Kriterien dann Diskriminierungen reproduzieren (Ethnie, Geschlecht, Alter, religiöse Identität), ist in einer Gesellschaft die immer noch täglich davon geprägt wird nicht weiter verwunderlich. Durch die Distanz zwischen Beobachter*in und der beobachteten Person ist auch eine Kommunikation kaum möglich, was Korrekturen oder Kontextualisierungen des Verhaltens erschwert.

Wie es immer das Problem ist wenn Racial Profiling bei Polizeiarbeit aufkommt, wird dadurch die Diskriminierung verfestigt und verstärkt. Denn wenn sich Kontrollen auf eine bestimmte Gruppe fokussieren, werden dort auch mehr Straftaten entdeckt. Dies wirkt sich auf die Kriminalitätsstatistiken aus, welche wiederum die diskriminierenden Vorurteile bestärkt.


An der neuen Technologie der automatisierten Videoüberwachung ...

Die genannten negativen Effekte der Videoüberwachung werden durch den Einsatz intelligenter Systeme weiter verstärkt. Da das System durch seine Komplexität:

  • mehr Angriffsfläche bietet
  • mehr Möglichkeiten des Missbrauchs aufmacht
  • die Mengen der erhobene Daten deutlich Größer ist und damit auch der potentielle Schaden steigt

Ignoranz von Problemen im System

Auch in Algorithmen können diskriminierend und kriminalisieren handeln. Denn diese müssen von Menschen entwickelt werden bzw. lernen vor diesen. Beispiele gibt es dafür genügend in der aktuellen KI-Forschung. Bei komplexen Systemen kommt aber hierzu die Schwierigkeit, dass es von außen sehr undurchsichtig ist. Damit sind nicht nur die Bürger*innen gemeint. Auch die Entwickler*innen und das Wachpersonal können den Entscheidungsfindungsprozess des Systems kaum nachvollziehen. Denn diese bekommen lediglich das Ergebnis präsentiert, oder sehen bei einer Analyse des Prozesses nur die Schritte durch eine von dem System erzeugten Perspektive. Ein problematischer Algorithmus kann somit kaum entdeckt werden. Und falls doch bleibt die Schwierigkeit das zu korrigieren. Bei einem komplexen System ist dies kaum möglich.
Ein weiteres Problem hierbei ist der Glaube, der in die Technik gesetzt wird. Als allwissendes, neutrales Allheilmittell. Gefördert wird dieses Bild durch die Präsentation der Technik durch Staat und Medien. Aber auch die Firmen hinter den Systemen haben eine Interesse daran, dass ihr Produkt möglichst gut dasteht.

Gefahr der Zweckentfremdung

Sobald das Kameranetz einmal mit einem intelligenten System verbunden ist, können verschiedenste Analysen über die Daten laufen. Das erheben andere Informationen als das für welches das System gebaut wurde ist dann kein großer Aufwand mehr . Es ist zum Beispiel technisch möglich, (nur noch nicht ganz ausgereift) den Gemütszustand einer Person anhand des Gesichts zu erkennen. Andere Analysen sind auch möglich. Was eingesetzt wird kann nur sehr schlecht geprüft werden da dies von außen nicht zu erkennen ist und die Behörden kaum bis gar nicht Transparent arbeiten wenn es um die Software geht.

False Positives

Gesichtserkennung hat nach aktuellem Stand der Entwicklung unter Laborbedienungen eine Fehlerrate (Falschakzeptanzrate bzw. Miss-Rate) zwischen 1:1000 und 1:10000. Selbst unter idealen Lichtbedingungen, bestem Kamerawinkel und bei Kooperation, kommt es statistisch in einem Fall unter 1000 zu einer Verwechslung oder dazu, dass das Gesicht nicht erkannt wird. Beim Einsatz im öffentlichen Raum, die sich deutlich von Laborbedingungen unterscheidet, liegt die Rate deutlich höher. Bei Millionen von Menschen, die sich durch den Öffentlichen Raum bewegen, würden statistisch gesehen Menschen andauernd als Gesucht erkannt und tatsächlich Gesuchte nicht erkannt werden. Im Einzelfall heißt das für betroffene Personen dann den ersten Formen staatlicher Repression ausgesetzt zu werden. (Verfolgung, Befragung, Personalien Feststellung, Polizeigewahrsam usw.)


Infos von FIfF e.V.
Deanonymisierung schadet einer Demokratie

Durch die Technik kann sich keiner mehr anonym im öffentlichen Raum bewegen. Dies ist aber essentiell für eine Demokratie, da diese nur bestehen kann, wenn eine freie Meinungsäußerung möglich ist. Wenn jedoch diese Meinung nicht mehr geäußert werden kann, ohne das diese gleich mit der Person verknüpft wird, kommt es zu Selbstzensur. Damit ist aber nicht nur die Teilnahme an einer Demonstration o.ä. gemeint. Schon Kleidungsstil, Auftreten und die Orte, welche wir besuchen, weisen bereits (wenn auch nicht immer bewusst) auf eine politische Ausrichtung hin. Wenn wir uns durch die Überwachung darin nicht mehr sicher fühlen ist das fatal für unsere Gesellschaft.

Schritt zu einem totalitäres Machtinstrument

Bei den entwickelten Systemen spielen Menschen nur noch eine überprüfende Rolle. Diese wird bei künftigen Entwicklungen auch obsolet und die Systeme können vollkommen automatisiert die Situation erkennen, analysieren und dann Entscheidungen treffen, die dann bestimmte Prozesse einleiten. Ab diesem Zeitpunkt stellen die Systeme ein unwahrscheinliches Machtinstrument dar, welches nach belieben eingesetzt werden kann. Denn ein Widerstand durch das Personal, welches sich weigert bestimmte Befehle auszuführen, wird es nicht mehr geben. Entscheidende Schutzmechanismen einer demokratischen Gesellschaft (Befehlsverweigerung, Ziviler Ungehorsam, ...) fallen dadurch weg.


An dem Pilotprojekt ...

Der Aufbau ist auf ein positives Ergebnis ausgelegt

Das Pilotprojekts stellt keine ernsthafte Untersuchung der Technik dar, sondern ist lediglich eine Farce um den zukünftigen Ausbau zu legitimieren. Ein positives Ergebnis ist schon allein dadurch abzusehen, das keine Kriterien festgelegt wurden, ab wann der Test als geglückt eingestuft wird. Es hat also nichts mit einer wissenschaftlichen Untersuchung zu tun sondern ist nur Teil einer politischen Agenda, die sich als stark und Handlungsfähig präsentiert. Weitere Verfälschungen der Ergebnisse kommen dadurch, dass die Testpersonen mit Preisen dazu animiert werden, sich von den Kameras erkennen zu lassen. Zudem ist die Lage am Südkreuz keineswegs repräsentativ für die meisten Bahnhöfe. Es handelt sich hierbei um einen sehr modernen Bahnhof, bei dem verschiedene Überwachungsaspekte bereits im Bau mit eingeplant wurden. Die Situation dort lässt sich mit kaum einen anderen Bahnhof in Berlin vergleichen.


Netzpolitik.org Beitrag dazu
Export der Forschungsergebnisse an undemokratische Staaten

Das Pilotprojekt dient unter anderem zur Verbesserung der Algorithmen und ist damit Teil des Entwicklungsprozesses dieser Überwachungssysteme. Diese werden von Firmen entwickelt und erhalten meist staatliche Förderung. Bei vergangenen Forschungsprojekten wurden die Ergebnisse ohne Skrupel an autoritäre Staaten weiterverkauft (z.B. EU Deals mit Ägypten bis 2015). Dort kommen sie unter anderem zum Einsatz bei der Verfolgung politischer Oppositioneller. Bei diesem Projekt ist nichts anderes zu erwarten und Forschung in dem Bereich sollte immer scharf kritisiert werden.

Die Betonung auf "Freiwilligkeit" ist heuchlerisch

Gegenüber Kritiker*innen wird oft erwähnt, dass es doch alles "auf freiwilliger Basis" geschieht. Dies mag zwar stimmen (und es wäre noch viel schlimmer wenn dem nicht so wäre), aber zum einen wird dabei die Tatsache heruntergespielt, dass es im realen Einsatz (für den es ja getestet wird) keineswegs freiwillig sein wird; zum anderen ist die Abgrenzung der Bereiche so mangelhaft, dass sie von den meisten Menschen am Bahnhof, die nur schnell irgendwo hin gehen wollen, nicht bemerkt wird. Diese Passant*innen werden unbewusst Teil des Tests und unterstützen somit der Entwicklung des Algorithmus.

Es gibt keine Rechtsgrundlage

Von Beginn gab es viel Kritik für das Projekt von Jurist*innen und Datenschützer*innen . Es wird vorgeworfen, dass es keine Rechtsgrundlage gibt für die Pläne zum Einsatz der automatisierten Verarbeitung der Videoaufnahmen. Im Aktuellen Aufbau wird bemängelt das die Warnhinweise an Boden und Tür, welche den Bereich kennzeichnen, nicht genügen. Johannes Caspar, der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit merkt an das der Aufbau nicht mit den den Vorgaben des Bundesverfassungsgerichts entspricht. Dabei beruft er sich auf eine Entscheidung des Bundesverfassungsgerichts 2017 zu einem ähnlichen Fall:

„Das Unterlassen eines ausdrücklichen Protests kann nicht stets mit einer Einverständniserklärung gleichgesetzt werden.“


Pressemitteilungen von Deutscher Anwalt Verein und Maja Smoltczyk (Berliner Beauftragte für Datenschutz und Informationsfreiheit).
Netzpolitik.org Beiträge dazu: Nr.1 und Nr.2


Gewaltbelastete Orte sind ein gesellschaftliches Problem, die Lösung dafür kann keine Technische sein!

Es fehlt nicht nur an einem solidarischen Miteinander, welches in viele Situationen helfen würde, sondern ein Grundlegender Ansatz wird benötigt. Die Probleme, welche gelöst werden sollen, sind vielschichtig und die Folgen gesellschaftlicher Missstände. Doch anstatt dort anzusetzen, werden die ursächlichen Probleme ignoriert und versucht, Menschen durch Kontrolle zu einem friedfertigen Verhalten zu zwingen.

Aktiv werden

① Anfangen dich und deine Daten zu schützen.

Dazu gehört zum Beispiel:

  • anonym im Internet surfen
  • Daten verschlüsseln
  • sich bei Kammeras unkenntlich machen
  • verschlüsselt kommunizieren
  • Datensparsamkeit im Alltag
  • alternative Dienste zu Google etc. nutzen

Falls du selber gerade noch wenig damit anfangen kannst ist das nicht schlimm. Komm doch einfach zu einer der vielen Crypto Partys. Dort wird dir gerne ganz genau erklärt wie du dich schützen kannst. Oder wirf einen Blick in diese Anleitung zur digitalen Selbstverteidigung.

② Dich und deine Freund *innnen Informiere

Damit einen Sensibilität für die Folgen der Überwachungsmaßnahmen entstehen kann muss deren Ausmaß und Wirkung bekannt sein. Du kannst dich zu kritischen Perspektiven auf die Entwicklungen über diese Seiten informieren:

Für einen tiefere Analyse und kritische Perspektive zum Thema sind auch die Veröffentlichungen der capulcu Gruppe gut geeignet.

③ Dich am Protest beteiligen

Wenn du noch mehr tun kannst schlies dich doch ENDSTATION an. In unserem internen Wiki kannst du dir schon einmal einen Überblick über die aktuelle Situation verschaffen. Wenn du mitarbeiten möchtest, kannst du dich einfach in die Mailingliste eintragen. Dort wird diskutiert und die Treffen werden kommuniziert. auf die Unterstützer*innen Mailingliste

weitere Aktive Gruppen in Berlin:

Über uns

ENDSTATION ist ein Aktionsbündnis gegen den Ausbau der Videoüberwachung im öffentlichen Raum. Wir sind offen und freuen uns über Unterstützung. Wir sammeln die breite Kritik am Ausbau der Überwachungstechnologien. Wir organisieren Veranstaltungen und Aktionen, recherchieren und schreiben Texte.

Kontakt

hallo@endstation.jetzt

am besten du schreibst uns verschlüsselt! (PGP-key)

Du weißt nicht wie das geht? Dann gibts hier eine einfache Anleitung. Oder besuche eine der vielen Crypto Partys.