sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Volk und Wirtschaft Medien und Gesellschaft Technologie und Gesellschaft Fundstücke
Leitet das Digital-Team im Wirtschaftsressort der Süddeutschen Zeitung, was nicht heißt, dass er nur Nerd-Kram piqt. Studierte in Erlangen und Portland Politikwissenschaft und Amerikanistik, schrieb in Nürnberg, Berlin, New York und München. Interessiert an allem Politischen. Am Absurden sowieso. Süchtig nach Longreads.
Wer sich noch mit Gesichtserkennung beschäftigt, ist ja, rein biometrisch gesehen, old school. Längst träumen Polizisten von und bauen Entwickler von Überwachungssystemen an Technik, die Verhalten klassifiziert. Die Systeme sollen zum Beispiel Menschen am Gang erkennen und – noch fortgeschrittener – Szenen erkennen, die andere verprügeln oder treten. Solche Software soll das Verhalten, das eine Überwachungskamera aufzeichnet, beurteilen und Sicherheitskräfte schicken, wenn das System Gewalt-Alarm auslöst. In Mannheim ist so ein System im Stadtzentrum im Einsatz, und diese verdienstvolle Recherche von Josephine Lulamae für die NGO Algorithm Watch zeigt, wo ihre Schwächen liegen. Sie hat in Mannheim vor Ort recherchiert, wie das System funktioniert und was die Menschen, die sich täglich vor den Kameras bewegen, dazu sagen (Ladenbesitzer begrüßen die Technik, manche Anwohner sehen mehr nervende und schikanöse Polizeieinsätze kommen).
Schon lange sollen Kameras bzw. ihre Software beispielsweise für längere Zeit augenscheinlich herrenlos herumstehende Koffer – mögliche Bomben – an Bahnhöfen erkennen. US-Städte experimentieren mit Geräuscherkennung, die bei Schüssen anspringt. Die visuelle Erkennung von Gewalttaten ist noch einmal deutlich schwieriger als Objekterkennung. Ein beteiligter Forscher der Fraunhofer-Gesellschaft schildert die Komplexität:
"try to train algorithms to spot “hitting, strangling, and kicking.” Initially, Müller says, officers would switch the “AI surveillance” feature off, because so many movements were flagged. Now, the algorithms are flagging hugs as "strangling". He adds that this is not necessarily a problem, because a hug can be non-consensual: "Imagine a stranger hugs you from behind,” he says. “Here, we need the police as the decision-maker to take a look”
Dementsprechend hapert es noch mit der Erkennungstechnik, zudem gibt es einfach zu wenig Gewalttaten an den gefilmten Orten. Die Polizisten müssen selbst Datenmaterial herstellen – indem sie auf den öffentlichen Plätzen selbst Kämpfe miteinander inszenieren.
Quelle: Josephine Lulamae EN algorithmwatch.org
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.