Die Bemühungen um die Regulierung von KI-Chatbots nehmen zu, da die politischen Entscheidungsträger auf eine strengere Zensur von Inhalten drängen.
Die in Brüssel ansässige gemeinnützige EU DisinfoLab erforscht, wie nützlich und effizient Chatbots mit großen Sprachmodellen (LLMs) sind, um die Online-Zensur („Moderation“) voranzutreiben, insbesondere in Bezug auf „Fehlinformationen“.
Obwohl die Gruppe formell nicht zur EU gehört, ist sie an einer Reihe von „Anti-Desinformationsprojekten“ beteiligt, die von der EU finanziert werden, und gibt politische Empfehlungen an ihre Institutionen und Mitgliedsländer.
Eine dieser möglichen „Empfehlungen in der Mache“ scheint nun ein Vorstoß zu sein, die Fähigkeiten von Chatbots als Werkzeuge der Zensur zu verbessern, wobei das Zensurgesetz der EU, der Digital Services Act (DSA), als der rechtliche Rahmen erwähnt wird, der dies ermöglichen würde.
In einem Bericht von DisinfoLab mit dem Titel „Terms of (dis)service: comparing misinformation policies in text-generative AI chatbot“ wird der Zweck der Forschung darin gesehen, die „Fehlinformationspolitik“ von 11 führenden Chatbots zu untersuchen, um festzustellen, ob sie genug tun, um zu verhindern, dass sie „von böswilligen Akteuren missbraucht oder ausgenutzt werden.“
Eine der Schlussfolgerungen ist, dass die für die von EU DisinfoLab untersuchten Chatbots geltenden Nutzungsbedingungen derzeit nicht ausreichen, um die Zensur explizit durchzusetzen, und sagt voraus, dass die „derzeit unzureichenden“ Möglichkeiten der Chatbots, „gegen Fehlinformationen zu moderieren“, nur noch schlimmer werden – wenn sie unreguliert bleiben.
Hier kommt die DSA ins Spiel, die in ihrem Bericht behauptet, dass die allgemeinen Bestimmungen des Gesetzes Online-Plattformen dazu verpflichten, „illegale Inhalte unverzüglich zu entfernen, sobald sie tatsächliche Kenntnis von deren Illegalität haben“ – eine Verpflichtung, die die Plattformen jetzt angeblich umgehen, indem sie die Einbeziehung von „Faktenüberprüfung“ vermeiden.
Europa ist nicht der einzige Ort, an dem die Möglichkeiten des Einsatzes von Chatbots als Fußsoldaten im „Krieg gegen Desinformation“ in Betracht gezogen werden. Die Versammlung des Bundesstaates New York will Chatbots nun „zur Verantwortung ziehen“.
Es wurde ein Vorschlag (Bill 025-A222) vorgelegt, der den Bereich regulieren würde, indem Unternehmen, die Chatbots einsetzen, für die Nichtbereitstellung „genauer Informationen“ haftbar gemacht werden.
Der Gesetzentwurf, der von einem demokratischen Mitglied der Staatsversammlung eingebracht wurde, zielt auch darauf ab, Informationen, die als „materiell irreführend, unrichtig, widersprüchlich oder schädlich“ definiert sind, in die Liste der Dinge aufzunehmen, für die Unternehmen keine Haftung übernehmen dürfen.
Und diese ohnehin schon weit gefassten Kategorien werden noch offener für Interpretationen, da der vorgeschlagene Text besagt, dass Chatbot-Betreiber als haftbar angesehen werden, wenn diese Arten von Informationen zu finanziellen Verlusten führen – aber auch zu „anderen nachweisbaren Schäden“.
Chatbots als Zensoren: Wie die EU-Maschine KI für die Sprachkontrolle ins Visier nimmt