Demokratische Kontrolle ausgeschlossen – biometrische Ausforschung jetzt auch im Privatsektor.
Gesichtserkennung gegen Demonstranten: Was NesherAI aus New York vormacht, kann bald globaler Standard werden
Von Redaktion | Analyse & Kommentar |
Ein Startup aus New York schreibt gerade ein neues Kapitel der digitalen Überwachung. Während Regierungen weltweit beteuern, Gesichtserkennung nur zur Terrorabwehr oder Kriminalitätsbekämpfung einzusetzen, zeigt der Fall NesherAI: Die Technologie wird längst für politische Zwecke genutzt – außerhalb offizieller Kontrollstrukturen, direkt durch private Akteure.
Protestieren = Zielperson
Was mit der Empörung über Clearview AI begann – dem kommerziellen Sammeln biometrischer Daten aus sozialen Netzwerken – erreicht mit Stellar Technologies eine neue Eskalationsstufe. Ihr Tool NesherAI wird direkt zur Identifizierung pro-palästinensischer Studentendemonstranten eingesetzt. Das Ziel? Meldung an US-Behörden zwecks möglicher Abschiebung.
Der Gründer des Startups, Eliyahu Hawila, gibt offen zu, er wolle Unterstützer der Hamas-Angriffe vom 7. Oktober identifizieren – doch die Kriterien dafür legt er selbst fest. Damit wird das System zur digitalen Waffe in einem politischen Meinungskrieg.
Wer bestimmt, wer „gefährlich“ ist?
Besonders brisant: Die Daten stammen nicht aus behördlichen Quellen, sondern aus frei zugänglichen Social-Media-Profilen. Menschen, die Selfies posten oder an Demonstrationen teilnehmen, laufen Gefahr, auf Gesichtserkennungslisten zu landen – auch ohne Straftat. Diese Ergebnisse werden dann an „Sicherheitsorganisationen“ und politische Gruppen weitergeleitet. Oder schlimmer: an ausländische Geheimdienste?
Die Firma beschreibt sich stolz als „Massenüberwachungsprojekt zur Unterstützung von Sicherheitsbehörden“ – bietet ihr System aber auch NGOs, Firmen und Universitäten an. Die Konsequenz: Jede Institution mit Geld kann sich ein eigenes Überwachungssystem bauen – ohne jede demokratische Kontrolle.
Exportmodell für autoritäre Regime?
Was in den USA beginnt, könnte zum globalen Blaupause für digitalisierte Repression werden. Derartige Systeme können beliebig angepasst werden: Heute gegen pro-palästinensische Studenten – morgen gegen Klimaaktivisten, Regimekritiker, Gewerkschafter. Was hindert Regierungen in Saudi-Arabien, Israel, Indien oder China daran, ähnliche Software zu kaufen oder nachzubauen?
In einem Zeitalter, in dem Protest als „radikal“ und Meinungsäußerung als „Bedrohung“ geframet wird, wird Gesichtserkennung zur ultimativen Drohkulisse:
Dein Gesicht macht dich angreifbar.
Doxing 2.0 – die digitale Pranger-Gesellschaft
Besonders gefährlich ist die Kombination aus Gesichtserkennung und sogenanntem Doxing: Die Identität der Zielperson wird öffentlich gemacht – inklusive Arbeitgeber, Studienplatz, Familie. Wer protestiert, riskiert nicht nur Verhaftung, sondern auch soziale Vernichtung. In den USA mag es mit Abschiebung enden – in anderen Ländern mit Folter oder Verschwindenlassen.
Und genau das wird hier erprobt.
Fazit: Eine Technologie auf Abwegen
Was Clearview einst als „reine Polizeitechnologie“ anpries, ist längst in den Händen von Aktivisten, Lobbyisten und politischen Gruppierungen angekommen – ausgestattet mit Künstlicher Intelligenz, vernetzt mit öffentlichen Datenbanken, global einsetzbar. NesherAI ist kein Einzelfall, sondern der Prototyp eines Systems, das weltweit Schule machen könnte.
Wer glaubt, dass Überwachung nur „die anderen“ trifft, wird bald merken:
Das Gesicht, das du gestern gepostet hast, könnte morgen dein Haftbefehl sein