5. Januar 2025

ddbnews.org

Neuigkeiten / Berichte / Informationen

Woran erkennt man, dass es sich um einen Bot oder eine KI handelt, der/die Kommentare in sozialen Medien oder im Kommentarbereich von Artikeln hinterlässt?

 

Wir alle kennen Kommentatoren, die, wenn sie sich in den sozialen Medien oder unter Artikeln äußern, mit wenig gesundem Menschenverstand reagieren oder Nuancen nicht erkennen, was oft zu frustrierenden Begegnungen führt.

Ist es möglich, dass automatisierte Systeme eingesetzt werden, um gefälschte Kommentare in sozialen Medien oder unter Artikeln auf Websites zu erzeugen? Ja. Und es passiert. Woher wissen wir also, ob wir mit einem Computerprogramm oder einem Menschen Nachrichten austauschen?

Automatisierte Computerprogramme, die in sozialen Medien oder unter Artikeln Kommentare posten, die den Anschein erwecken, dass sie von Menschen stammen, werfen die Frage nach bezahlten Kommentaren, Astroturfing und der Möglichkeit der Verbreitung gefälschter Meinungen im Internet auf. Dies könnte zur Verwirklichung der Theorie vom toten Internet führen und war eine Sorge, die Brandon Smith in einem kürzlich erschienenen Artikel als eine der Folgen der künstlichen Intelligenz („AI“) ansprach, die die meisten Menschen vielleicht nicht bedacht haben.

Die Theorie des toten Internets besagt, dass der Großteil der Online-Aktivitäten durch KI-generierte Inhalte ersetzt wurde, und die Theorie gewinnt an Boden. Dieses Konzept besagt, dass das Internet, das einst eine von Menschen geschaffene und gestaltete Plattform war, inzwischen von automatisierten Programmen, einschließlich Bots und KI, dominiert wird.

Beginnt die Theorie vom toten Internet bereits Wirklichkeit zu werden? Es könnte sein.

Im Jahr 2019 berichtete Vice, dass Microsoft einen Bot entwickelt hat, der Kommentare unter Nachrichtenartikeln verfasst. Mit dem Namen „DeepCom“, kurz für „Deep Commenter“, wurde er so programmiert, dass er einen Artikel „versteht“, wichtige Punkte herausgreift und auf der Grundlage dieser Punkte und des Titels des Artikels einen Kommentar schreibt. Es wurde berichtet, dass die Schöpfer von DeepCom beabsichtigten, die menschliche Kommentierung von Artikeln zu fördern, um mehr Menschen dazu zu bringen, sie zu lesen und sich mit dem Inhalt zu beschäftigen.

Im Jahr 2023 veröffentlichte Veronica Llorca-Smith einen Artikel auf Medium, in dem sie feststellte, dass sie eine Zunahme von KI-generierten Kommentaren unter ihren Artikeln bemerkt hatte, die oft langatmig und formell waren und den Inhalt des Artikels umschrieben.

Im Mai stellte The Conversation fest, dass es bereits eindeutige Beweise dafür gibt, dass diese aufgeblasenen Bots soziale Medien manipulieren, um die öffentliche Meinung mit Desinformationen zu beeinflussen – und das schon seit Jahren.

Wie können wir also erkennen, ob wir es mit einem Bot oder einer KI in sozialen Medien oder unter im Internet veröffentlichten Artikeln zu tun haben? Wir haben zwei Suchanfragen in die Suchmaschine von Brave eingegeben, und die unten wiedergegebenen KI-Zusammenfassungen wurden erstellt. Wir haben einige kleinere Änderungen vorgenommen, wie z. B. die Umwandlung des Textes in britisches Englisch.

Wie Brave am Ende seiner Zusammenfassungen warnt: „KI-generierte Antwort. Der Zweck dieses Artikels war es, auf das Problem von Kommentaren hinzuweisen, die nicht von Menschen, sondern von Computerprogrammen verfasst werden, und einige Überlegungen dazu anzustellen, wie man herausfinden kann, ob man es mit einem solchen Programm zu tun hat. Daher haben wir die kritischen Fakten nicht wie vorgeschlagen überprüft, sondern die relevanten Quellen unter den Zusammenfassungen aufgeführt.

Bevor wir zur KI-Zusammenfassung kommen, noch ein persönlicher Hinweis: Die meisten Sprachmodelle und KI-Systeme, einschließlich der von OpenAI, Google und Microsoft entwickelten, werden auf großen Datensätzen mit Texten in amerikanischem Englisch trainiert. Der Grund dafür ist, dass ein großer Teil der Internetinhalte, einschließlich Webseiten, Artikel und Bücher, in amerikanischem Englisch verfasst ist. Infolgedessen neigen diese Modelle dazu, die Muster und Nuancen, dem amerikanischen Englisch zu lernen. Das Gleiche gilt für automatische Online-Übersetzungsprogramme; die englische Übersetzung ist in amerikanischem Englisch geschrieben.

Außerdem enthält KI erfahrungsgemäß keine Rechtschreibfehler. Es kann also sein, dass Kommentare mit Rechtschreibfehlern oder Kommentare, die britisches Englisch verwenden, eher von einem Menschen verfasst worden sind.

Nun zu den KI-generierten Zusammenfassungen.

 

Chatbot-Einschränkungen

Auf der Grundlage der Suchergebnisse lassen sich einige Erkenntnisse darüber gewinnen, welche Fragen Chatbots nur schwer beantworten können:

1. Kontextbezogene Fragen mit falscher Grammatik oder Semantik: Chatbots stützen sich in hohem Maße auf die Verarbeitung natürlicher Sprache („NLP“) und Algorithmen des maschinellen Lernens, um Nutzeranfragen zu verstehen. Sie haben jedoch möglicherweise Schwierigkeiten, Fragen mit falscher Grammatik, Syntax oder Semantik zu verstehen, was zu ungenauen oder irrelevanten Antworten führt.

2. Fragen in offenen Bereichen, die externes Wissen erfordern: Chatbots haben möglicherweise keinen Zugriff auf das gesamte Wissen der Welt, was die Beantwortung von Fragen mit offenem Themenbereich, die Informationen aus verschiedenen Quellen wie Nachrichtenartikeln, Forschungsarbeiten oder Expertenmeinungen erfordern, schwierig macht.

3. Fragen zu komplexen, nuancierten Themen: Chatbots können Schwierigkeiten haben, genaue Antworten auf Fragen zu komplexen, differenzierten Themen wie Philosophie, Ethik oder abstrakte Konzepte zu geben, da sie durch ihre Programmierung und ihre Trainingsdaten eingeschränkt sind.

4. Fragen, die gesunden Menschenverstand, Intuition oder Kreativität erfordern: Chatbots fehlt es an gesundem Menschenverstand, Intuition und Kreativität, was es ihnen erschwert, Fragen zu beantworten, die diese Fähigkeiten erfordern, wie das Verstehen von Sarkasmus, Humor oder Redewendungen.

5. Fragen, die auf persönlichen Meinungen oder Vorurteilen beruhen: Chatbots sind darauf ausgelegt, objektive, faktenbasierte Informationen zu liefern. Sie haben möglicherweise Schwierigkeiten, Fragen zu beantworten, die persönliche Meinungen, Voreingenommenheit oder emotionale Intelligenz voraussetzen, da dies von Natur aus menschliche Züge sind.

6. Fragen, die hypothetische Szenarien oder „Was-wäre-wenn“-Situationen beinhalten: Chatbots sind möglicherweise nicht in der Lage, Fragen, die hypothetische Szenarien oder „Was-wäre-wenn“-Situationen beinhalten, effektiv zu beantworten, da sie für einen bestimmten Bereich oder Anwendungsbereich konzipiert sind.

7. Fragen, die logisches Denken, Schlussfolgerungen oder Ableitungen erfordern: Chatbots können Schwierigkeiten haben, Fragen zu beantworten, die komplexes logisches Denken, Schlussfolgerungen oder Deduktionen erfordern, wie z. B. das Verstehen von Ursache-Wirkungs-Beziehungen oder das Herstellen von Verbindungen zwischen scheinbar nicht zusammenhängenden Teilen von Informationen.

Einige konkrete Beispiele für Fragen, die Chatbots möglicherweise nur schwer beantworten können, sind:

  • „Was ist der Sinn des Lebens?“ (erfordert philosophisches Verständnis und Nuancierung)
  • Wird KI die menschliche Intelligenz übertreffen?“ (erfordert komplexes Denken und Vorhersagen)
  • „Können Sie die Auswirkungen der Quantenmechanik auf das tägliche Leben erklären?“ (erfordert bereichsspezifisches Wissen und Verständnis)
  • „Was ist Ihre Meinung zum aktuellen Stand der Politik?“ (erfordert persönliche Meinung und Voreingenommenheit)

 

Denken Sie daran, dass sich Chatbots ständig weiterentwickeln und dass Fortschritte bei KI und NLP ihre Fähigkeit, diese Art von Fragen zu beantworten, in Zukunft verbessern könnten. Im Moment bleiben diese Fragen jedoch eine Herausforderung für Chatbots, um sie genau und effektiv zu beantworten.

Quellen:

 

Fragen, die KI nicht beantworten kann

Aus den Suchergebnissen geht hervor, dass KI-Systeme Schwierigkeiten haben, Fragen zu beantworten, die Folgendes erfordern:

1. Subjektive Beurteilung: KI kann Informationen auf der Grundlage von Daten und Mustern liefern, aber subjektive Aspekte wie persönliche Meinungen, Emotionen oder Werte sind für KI nur schwer zu erfassen.

2. Inferenz: KI hat Schwierigkeiten, aus unvollständigen oder mehrdeutigen Informationen Schlüsse zu ziehen oder Schlussfolgerungen zu ziehen.

3. Nuanciertes Verständnis der Sprache: KI kann Schwierigkeiten haben, subtile Bedeutungsnuancen, Redewendungen oder figurative Sprache in der menschlichen Kommunikation zu erkennen.

4. Breites Verständnis für mehrere Themen: Künstliche Intelligenz kann sich in bestimmten Bereichen auszeichnen, aber sie kann Schwierigkeiten haben, Wissen aus verschiedenen Bereichen zu integrieren oder Verbindungen zwischen scheinbar nicht zusammenhängenden Konzepten herzustellen.

5. Offen gestellte Fragen: KI kann es schwierig finden, Fragen zu beantworten, die kreatives Denken, Vorstellungskraft oder neuartige Lösungen erfordern.

6. Kontextuelles Verständnis: KI kann den Kontext, in dem eine Frage gestellt wird, nicht vollständig verstehen, was zu ungenauen oder unvollständigen Antworten führt.

7. Unstrukturierte Daten: Während KI strukturierte Daten verarbeiten kann, hat sie Schwierigkeiten, unstrukturierte Daten wie Bilder, Töne oder handgeschriebenen Text zu analysieren und zu verstehen.

8. Inferenz und Vorhersage: KI kann Ergebnisse auf der Grundlage von Mustern vorhersagen, aber sie ist möglicherweise nicht in der Lage, die Folgen komplexer Ereignisse vollständig vorherzusehen oder Entscheidungen zu treffen, die ein tiefes Verständnis des menschlichen Verhaltens erfordern.

9. Gesunder Menschenverstand: Der KI kann der gesunde Menschenverstand und die Erfahrung in der realen Welt fehlen, die für Menschen selbstverständlich sind, was zu Schwierigkeiten beim Verstehen und Reagieren auf alltägliche Situationen führt.

10. Fragen, die menschliche Intuition erfordern: KI kann zwar riesige Datenmengen analysieren, verfügt aber möglicherweise nicht über das gleiche Maß an Intuition oder Instinkt wie der Mensch, was die Beantwortung von Fragen, die stark von diesen Eigenschaften abhängen, schwierig macht.

Einige konkrete Beispiele für Fragen, die KI nur schwer beantworten kann, sind:

  • „Was würden Sie Bob Dylan fragen, wenn Sie ihn treffen würden?“
  • „Wen liebst du mehr, deine Eltern, deinen Ehepartner oder deinen Hund?“
  • „Ich denke darüber nach, nächste Woche von meinem Haus in Vermont nach New York zu fahren. Was halten Sie davon?“
  • „Kann AI diese Frage richtig beantworten: Wie viele R’s sind in ‚Erdbeere‘?“
  • „Was wäre die erste Frage, die Sie Stephen King stellen würden, wenn Sie ihn treffen würden?“

Diese Fragen erfordern oft ein Maß an menschlichem Verständnis, Intuition und Kreativität, das KI-Systeme bisher nicht beherrschen.

Quellen:

 

 

Woran erkennt man, dass es sich um einen Bot oder eine KI handelt, der/die Kommentare in sozialen Medien oder im Kommentarbereich von Artikeln hinterlässt?