(B) Zufall, Abfall oder eine unvorhersehbare bewusste Tat? Nicht alles ist berechenbar!
Am 17. September wurden bei AVA in der Torstraße in Berlin-Mitte Scheiben eingehämmert und Buttersäure hinterlassen.
AVA nennt ihr euch und verkündet, dass ihr unsere Angst beherrschen wollt, dass ihr uns eine scheinbare Sicherheit vorgebt. Und dass wir unsere Leben in eure Hände legen sollen. Sascha Knopp, Geschäftsführer von AVA, begründet seine Ansammlung von Daten und Ausspähung damit, dass es ein unentschuldbares Versäumnis wäre, nicht all die Daten zu nutzen, die heutzutage verfügbar sind, wenn sie im Falle eines Anschlags hunderte Menschenleben retten könnten. Also zieht das gefahrensensible System von AVA alle Big Data Quellen heran, die es kriegen kann. Daten der Weltgesundheitsbehörde der Vereinten Nationen, Bilder von Webcams, Polizeiberichte, soziale Medien wie Facebook und Twitter, GEOX ein militärisches Sicherheitsunternehmen, DHL, Zeitungen und Nachrichten. Die Informationen werden von einem AVA-eigenem Machine Learning System verifiziert - nach der Devise: Besser, effizienter, sicherer.
AVA rühmt sich mit der App blockpeek, eine angeblich vorhersehbare Sicherheit für die Staatsorgane und Bürger*innen. Das Frühwarnsystem, was angebliche Gefahren erkennt: ein von der Polizei markiertes Gefahrengebiet, eine Demo die mit dem demokratischen Konsens bricht, ein Park in dem nicht nur nach den Spielregeln des Staates gespielt wird oder ein Gewitter.
Aber was bedeutet es, wenn die scheinbare Sicherheit die AVA verspricht, oder vielmehr das Gefühl, unseren Alltag bestimmt? Wir geben unsere tiefen Empfindungen ab und bewegen uns wie und wo es uns die App sagt. Wir stigmatisieren Menschen, weil sie nach der App und Kriminalstatistiken in der falschen Gegend wohnen, die falsche Hautfarbe oder Pass haben, oder zur falschen Zeit am falschen Ort waren, Menschen die für den Staat kriminell werden, weil sie ihn in Frage stellen. Und wohin führt das? Zu einem Leben, ach nein zu einer App, einer smarte Software, die ein System der Ausbeutung reproduziert, was uns eine abgeflachte, vereinfachte und statische Zukunft in Form von Algorithmen bereiten soll. Diese App, die für unsere Sicherheit sorgen soll, ist eine zutiefst patriarchale und rassistische, denn es geht immer um die Sicherheit der Herrschaft. Ein Beispiel ist eine künstliche Intelligenz von amazon, die Bewerber_innen im Voraus sortieren sollte: innerhalb von kürzester Zeit entwickelte sich die KI zum Frauenfeind, kaum eine Frau wurde zum Casting eingeladen. Amazon musste vorerst abschalten. In den USA berechnen Richter_innen mittels KI, ob die Angeklagten wieder straffällig werden könnten. Der Chatbot Tay von Microsoft entpuppte sich nach 16 Stunden Gesprächserfahrung in sozialen Medien als Nazi - er lernte offenbar nur Inhaltsmuster entsprechender Nachrichten.
Auf der Erkundung, der Vorstellung einer berechenbaren und totalitären Gesellschaft wie AVA sie realisiert, Stiche zu verpassen, sitzen wir auf Parkbänken, trotzen unserer Angst mit Träumen, Ideen und Taten, die wir kreativ, unvorhersehbar und voller Überraschungen den herrschenden Technologiegläubigen vor die Füße legen. Diesmal sind es Löcher in den Fenstern von AVA und ein unerträglicher Gestank nach Buttersäure. Möge der Gestank eure elenden Schnüffelnasen verstopfen!