Ein Experiment, das wie ein Science-Fiction-Szenario klingt, wurde Realität – mitten unter Millionen von Reddit-Nutzern. Forscher der Universität Zürich setzten heimlich KI-Bots ein, um menschliche Ansichten zu manipulieren. Das Ergebnis ist erschreckend – und hochbrisant.
Im November 2024 startete ein Team von Wissenschaftlern der Universität Zürich ein groß angelegtes Experiment auf Reddit – ohne Ankündigung, ohne Zustimmung der Community und unter klarer Missachtung der Plattformregeln. Ziel war es, herauszufinden, wie effektiv große Sprachmodelle (LLMs) in der Lage sind, menschliche Meinungen zu beeinflussen – mit erstaunlichem, wenn auch alarmierendem Ergebnis.
KI gegen echte Menschen – ohne deren Wissen
Im Subreddit r/ChangeMyView, einer Diskussionsplattform mit über vier Millionen Nutzern, mischten sich 13 eigens dafür angelegte KI-Bots unter die Diskussionsteilnehmer. Sie schrieben laut später veröffentlichten Daten fast 1.500 Kommentare, oft auf äußerst personalisierte Weise.
Das Besondere (und Gefährliche) an diesem Vorgehen: Ein zweiter Bot analysierte vorab das Profil und den Kommentarverlauf der Zielperson. Basierend auf deren Überzeugungen und Argumentationsmustern wurde anschließend eine gezielte, individuell abgestimmte Antwort erstellt – mit verblüffender Effektivität.
6-mal höhere Erfolgsquote als echte Nutzer
Im Subreddit „ChangeMyView“ vergibt der ursprüngliche Poster ein sogenanntes „Delta“ (Δ), wenn ihn ein Kommentar überzeugt und seine Meinung tatsächlich verändert. Im Fall der Zürcher KI-Bots geschah dies über 100 Mal – sechsmal häufiger als im statistischen Durchschnitt.
Damit zeigt das Experiment nicht nur, dass KI-Nachrichten überzeugender sein können als menschliche, sondern auch, dass personalisierte, täuschend echte Argumente eine neue Dimension der Manipulation darstellen.
Lügen, Täuschung – und „Halluzinationen“
Noch erschreckender: Die Bots griffen regelmäßig auf Fehlinformationen und erfundene Identitäten zurück. In ihren Kommentaren behaupteten sie zum Beispiel, ein Vergewaltigungsopfer zu sein, oder beschrieben sich als „weiße Frau in einem fast ausschließlich schwarzen Büro“ – fiktive Erzählungen, die darauf ausgelegt waren, Empathie zu erzeugen und Widerstände zu brechen.
Auch inhaltlich verwendeten sie vielfach umstrittene Narrative, etwa:
- dass die Pro-Life-Bewegung ein „Angriff auf einvernehmlichen Sex“ sei
- dass das Christentum „Gewalt gegen LGBT-Menschen“ predige
- dass Elon Musk „lüge und Tesla ruinierte“
- dass die industrielle Revolution die soziale Ungleichheit verstärkt habe
- oder dass „die Gesellschaft dem Christentum entwachsen“ sei
Diese Aussagen spiegelten gängige progressive Narrative wider – viele davon nachweislich einseitig oder schlicht falsch.
Reddit als ideales KI-Testfeld?
Besonders beunruhigend: Niemand hat es bemerkt. Die Bots agierten so überzeugend, dass sie sich nahtlos in das soziale Gefüge von Reddit einfügten – wahrscheinlich, weil große KI-Modelle mit Reddit-Daten trainiert wurden. Sie verstehen die Sprache, den Tonfall und die sozialen Codes der Plattform – besser als viele Menschen.
Das Papier mit dem harmlosen Titel „Kann KI Ihre Sichtweise ändern?“ beschreibt detailliert den Prozess, den Forscher der Universität Zürich verwendet haben, um KI auf Reddit interagieren zu lassen. Dies geschah im Geheimen, ohne die Benutzer oder Moderatoren zu informieren.
Das erklärt auch, warum selbst erfahrene Nutzer sie nicht als künstlich entlarvten: Die Bots waren praktisch unsichtbar, ihre Kommentare wirkten menschlich, argumentativ geschickt und emotional manipulierend.
Moderatoren reagieren – spät
Erst zwei Tage vor Veröffentlichung dieses Artikels gingen die Moderatoren von r/ChangeMyView an die Öffentlichkeit. In einem Meta-Post klärten sie über das Experiment auf, bezeichneten es als „unauthorisiertes Experiment“ und erklärten, dass die Universität Zürich gegen die Plattformregeln verstoßen habe. Die betroffenen Bot-Accounts wurden offengelegt.
Die Universität Zürich hat bislang keine umfassende Stellungnahme abgegeben. Weder eine Entschuldigung noch eine Zusicherung, dass solche Tests in Zukunft unterlassen werden, liegt vor.
Fazit: Die Theorie vom „toten Internet“ bekommt neue Nahrung
Diese Studie hat Konsequenzen:
- KI-Bots lassen sich auf Plattformen wie Reddit kaum erkennen.
- Sie können gezielt lügen – und tun das auch.
- Sie sind bereits heute fähig, Meinungen zu verändern – ohne dass die Betroffenen es merken.
Was hier vorgefallen ist, ist keine harmlose akademische Spielerei, sondern ein massiver Eingriff in digitale Diskurse, mit weitreichenden Implikationen für Meinungsbildung, Informationsfreiheit und Demokratie.
Das Experiment der Universität Zürich zeigt: Die Grenze zwischen Mensch und Maschine im Internet ist endgültig verwischt. Und wer heute online diskutiert, könnte morgen schon Ziel algorithmischer Manipulation sein – ohne es zu wissen.
Verdeckte KI-Operation aufgedeckt: Wie Forscher aus Zürich Reddit-Nutzer heimlich manipulierten