Wir alle kennen Kommentatoren, die, wenn sie sich in den sozialen Medien oder unter Artikeln äußern, mit wenig gesundem Menschenverstand reagieren oder Nuancen nicht erkennen, was oft zu frustrierenden Begegnungen führt.
Ist es möglich, dass automatisierte Systeme eingesetzt werden, um gefälschte Kommentare in sozialen Medien oder unter Artikeln auf Websites zu erzeugen? Ja. Und es passiert. Woher wissen wir also, ob wir mit einem Computerprogramm oder einem Menschen Nachrichten austauschen?
Automatisierte Computerprogramme, die in sozialen Medien oder unter Artikeln Kommentare posten, die den Anschein erwecken, dass sie von Menschen stammen, werfen die Frage nach bezahlten Kommentaren, Astroturfing und der Möglichkeit der Verbreitung gefälschter Meinungen im Internet auf. Dies könnte zur Verwirklichung der Theorie vom toten Internet führen und war eine Sorge, die Brandon Smith in einem kürzlich erschienenen Artikel als eine der Folgen der künstlichen Intelligenz („AI“) ansprach, die die meisten Menschen vielleicht nicht bedacht haben.
Die Theorie des toten Internets besagt, dass der Großteil der Online-Aktivitäten durch KI-generierte Inhalte ersetzt wurde, und die Theorie gewinnt an Boden. Dieses Konzept besagt, dass das Internet, das einst eine von Menschen geschaffene und gestaltete Plattform war, inzwischen von automatisierten Programmen, einschließlich Bots und KI, dominiert wird.
Beginnt die Theorie vom toten Internet bereits Wirklichkeit zu werden? Es könnte sein.
Im Jahr 2023 veröffentlichte Veronica Llorca-Smith einen Artikel auf Medium, in dem sie feststellte, dass sie eine Zunahme von KI-generierten Kommentaren unter ihren Artikeln bemerkt hatte, die oft langatmig und formell waren und den Inhalt des Artikels umschrieben.
Im Mai stellte The Conversation fest, dass es bereits eindeutige Beweise dafür gibt, dass diese aufgeblasenen Bots soziale Medien manipulieren, um die öffentliche Meinung mit Desinformationen zu beeinflussen – und das schon seit Jahren.
Wie können wir also erkennen, ob wir es mit einem Bot oder einer KI in sozialen Medien oder unter im Internet veröffentlichten Artikeln zu tun haben? Wir haben zwei Suchanfragen in die Suchmaschine von Brave eingegeben, und die unten wiedergegebenen KI-Zusammenfassungen wurden erstellt. Wir haben einige kleinere Änderungen vorgenommen, wie z. B. die Umwandlung des Textes in britisches Englisch.
Wie Brave am Ende seiner Zusammenfassungen warnt: „KI-generierte Antwort. Der Zweck dieses Artikels war es, auf das Problem von Kommentaren hinzuweisen, die nicht von Menschen, sondern von Computerprogrammen verfasst werden, und einige Überlegungen dazu anzustellen, wie man herausfinden kann, ob man es mit einem solchen Programm zu tun hat. Daher haben wir die kritischen Fakten nicht wie vorgeschlagen überprüft, sondern die relevanten Quellen unter den Zusammenfassungen aufgeführt.
Bevor wir zur KI-Zusammenfassung kommen, noch ein persönlicher Hinweis: Die meisten Sprachmodelle und KI-Systeme, einschließlich der von OpenAI, Google und Microsoft entwickelten, werden auf großen Datensätzen mit Texten in amerikanischem Englisch trainiert. Der Grund dafür ist, dass ein großer Teil der Internetinhalte, einschließlich Webseiten, Artikel und Bücher, in amerikanischem Englisch verfasst ist. Infolgedessen neigen diese Modelle dazu, die Muster und Nuancen, dem amerikanischen Englisch zu lernen. Das Gleiche gilt für automatische Online-Übersetzungsprogramme; die englische Übersetzung ist in amerikanischem Englisch geschrieben.
Außerdem enthält KI erfahrungsgemäß keine Rechtschreibfehler. Es kann also sein, dass Kommentare mit Rechtschreibfehlern oder Kommentare, die britisches Englisch verwenden, eher von einem Menschen verfasst worden sind.
Nun zu den KI-generierten Zusammenfassungen.
Chatbot-Einschränkungen
Auf der Grundlage der Suchergebnisse lassen sich einige Erkenntnisse darüber gewinnen, welche Fragen Chatbots nur schwer beantworten können:
1. Kontextbezogene Fragen mit falscher Grammatik oder Semantik: Chatbots stützen sich in hohem Maße auf die Verarbeitung natürlicher Sprache („NLP“) und Algorithmen des maschinellen Lernens, um Nutzeranfragen zu verstehen. Sie haben jedoch möglicherweise Schwierigkeiten, Fragen mit falscher Grammatik, Syntax oder Semantik zu verstehen, was zu ungenauen oder irrelevanten Antworten führt.
2. Fragen in offenen Bereichen, die externes Wissen erfordern: Chatbots haben möglicherweise keinen Zugriff auf das gesamte Wissen der Welt, was die Beantwortung von Fragen mit offenem Themenbereich, die Informationen aus verschiedenen Quellen wie Nachrichtenartikeln, Forschungsarbeiten oder Expertenmeinungen erfordern, schwierig macht.
3. Fragen zu komplexen, nuancierten Themen: Chatbots können Schwierigkeiten haben, genaue Antworten auf Fragen zu komplexen, differenzierten Themen wie Philosophie, Ethik oder abstrakte Konzepte zu geben, da sie durch ihre Programmierung und ihre Trainingsdaten eingeschränkt sind.
4. Fragen, die gesunden Menschenverstand, Intuition oder Kreativität erfordern: Chatbots fehlt es an gesundem Menschenverstand, Intuition und Kreativität, was es ihnen erschwert, Fragen zu beantworten, die diese Fähigkeiten erfordern, wie das Verstehen von Sarkasmus, Humor oder Redewendungen.
5. Fragen, die auf persönlichen Meinungen oder Vorurteilen beruhen: Chatbots sind darauf ausgelegt, objektive, faktenbasierte Informationen zu liefern. Sie haben möglicherweise Schwierigkeiten, Fragen zu beantworten, die persönliche Meinungen, Voreingenommenheit oder emotionale Intelligenz voraussetzen, da dies von Natur aus menschliche Züge sind.
6. Fragen, die hypothetische Szenarien oder „Was-wäre-wenn“-Situationen beinhalten: Chatbots sind möglicherweise nicht in der Lage, Fragen, die hypothetische Szenarien oder „Was-wäre-wenn“-Situationen beinhalten, effektiv zu beantworten, da sie für einen bestimmten Bereich oder Anwendungsbereich konzipiert sind.
7. Fragen, die logisches Denken, Schlussfolgerungen oder Ableitungen erfordern: Chatbots können Schwierigkeiten haben, Fragen zu beantworten, die komplexes logisches Denken, Schlussfolgerungen oder Deduktionen erfordern, wie z. B. das Verstehen von Ursache-Wirkungs-Beziehungen oder das Herstellen von Verbindungen zwischen scheinbar nicht zusammenhängenden Teilen von Informationen.
Einige konkrete Beispiele für Fragen, die Chatbots möglicherweise nur schwer beantworten können, sind:
- „Was ist der Sinn des Lebens?“ (erfordert philosophisches Verständnis und Nuancierung)
- „Wird KI die menschliche Intelligenz übertreffen?“ (erfordert komplexes Denken und Vorhersagen)
- „Können Sie die Auswirkungen der Quantenmechanik auf das tägliche Leben erklären?“ (erfordert bereichsspezifisches Wissen und Verständnis)
- „Was ist Ihre Meinung zum aktuellen Stand der Politik?“ (erfordert persönliche Meinung und Voreingenommenheit)
Denken Sie daran, dass sich Chatbots ständig weiterentwickeln und dass Fortschritte bei KI und NLP ihre Fähigkeit, diese Art von Fragen zu beantworten, in Zukunft verbessern könnten. Im Moment bleiben diese Fragen jedoch eine Herausforderung für Chatbots, um sie genau und effektiv zu beantworten.
Quellen:
- 5 Chatbot-Fragen, auf die Sie vorbereitet sein müssen, Ubisend, 21. April 2017
- Kapitel 11: Chatbots als Frage- und Antwortsysteme, Madhu Sanjeevi, 19. April 2018
- Welche Chatbots können diese Art von einfachen Fragen beantworten, bei denen man nur den Kontext im Auge behalten muss? Stack Exchange, 18. Juli 2022
- Welche einzelne Frage kann helfen, einen Chatbot von einem Menschen zu unterscheiden? Quora, 8. September 2023
- Welche Fragen sind für einen Chatbot sehr schwer zu beantworten? Quora, 25. Februar 2024
- Was ist eine gute Frage, um einen KI-Bot, der versucht, eine „Konversation“ mit Ihnen zu führen, „zum Stolpern zu bringen“? Einige von ihnen sind sehr gut darin, Antworten auf Fragen zu programmieren, die ich als schwierige Herausforderungen betrachten würde. Es ist mir peinlich, wenn ich merke, dass ich einen von ihnen beschäftigt habe, Quora
Fragen, die KI nicht beantworten kann
Aus den Suchergebnissen geht hervor, dass KI-Systeme Schwierigkeiten haben, Fragen zu beantworten, die Folgendes erfordern:
1. Subjektive Beurteilung: KI kann Informationen auf der Grundlage von Daten und Mustern liefern, aber subjektive Aspekte wie persönliche Meinungen, Emotionen oder Werte sind für KI nur schwer zu erfassen.
2. Inferenz: KI hat Schwierigkeiten, aus unvollständigen oder mehrdeutigen Informationen Schlüsse zu ziehen oder Schlussfolgerungen zu ziehen.
3. Nuanciertes Verständnis der Sprache: KI kann Schwierigkeiten haben, subtile Bedeutungsnuancen, Redewendungen oder figurative Sprache in der menschlichen Kommunikation zu erkennen.
4. Breites Verständnis für mehrere Themen: Künstliche Intelligenz kann sich in bestimmten Bereichen auszeichnen, aber sie kann Schwierigkeiten haben, Wissen aus verschiedenen Bereichen zu integrieren oder Verbindungen zwischen scheinbar nicht zusammenhängenden Konzepten herzustellen.
5. Offen gestellte Fragen: KI kann es schwierig finden, Fragen zu beantworten, die kreatives Denken, Vorstellungskraft oder neuartige Lösungen erfordern.
6. Kontextuelles Verständnis: KI kann den Kontext, in dem eine Frage gestellt wird, nicht vollständig verstehen, was zu ungenauen oder unvollständigen Antworten führt.
7. Unstrukturierte Daten: Während KI strukturierte Daten verarbeiten kann, hat sie Schwierigkeiten, unstrukturierte Daten wie Bilder, Töne oder handgeschriebenen Text zu analysieren und zu verstehen.
8. Inferenz und Vorhersage: KI kann Ergebnisse auf der Grundlage von Mustern vorhersagen, aber sie ist möglicherweise nicht in der Lage, die Folgen komplexer Ereignisse vollständig vorherzusehen oder Entscheidungen zu treffen, die ein tiefes Verständnis des menschlichen Verhaltens erfordern.
9. Gesunder Menschenverstand: Der KI kann der gesunde Menschenverstand und die Erfahrung in der realen Welt fehlen, die für Menschen selbstverständlich sind, was zu Schwierigkeiten beim Verstehen und Reagieren auf alltägliche Situationen führt.
10. Fragen, die menschliche Intuition erfordern: KI kann zwar riesige Datenmengen analysieren, verfügt aber möglicherweise nicht über das gleiche Maß an Intuition oder Instinkt wie der Mensch, was die Beantwortung von Fragen, die stark von diesen Eigenschaften abhängen, schwierig macht.
Einige konkrete Beispiele für Fragen, die KI nur schwer beantworten kann, sind:
- „Was würden Sie Bob Dylan fragen, wenn Sie ihn treffen würden?“
- „Wen liebst du mehr, deine Eltern, deinen Ehepartner oder deinen Hund?“
- „Ich denke darüber nach, nächste Woche von meinem Haus in Vermont nach New York zu fahren. Was halten Sie davon?“
- „Kann AI diese Frage richtig beantworten: Wie viele R’s sind in ‚Erdbeere‘?“
- „Was wäre die erste Frage, die Sie Stephen King stellen würden, wenn Sie ihn treffen würden?“
Diese Fragen erfordern oft ein Maß an menschlichem Verständnis, Intuition und Kreativität, das KI-Systeme bisher nicht beherrschen.
Quellen:
- 10 Questions That Reveal The Limits of AI, Forbes, 18. Januar 2017
- Die Fragen, die künstliche Intelligenz nicht beantworten kann, The Hill, 17. Juli 2023
- 15 Dinge, die KI tun kann (und nicht tun kann), News Channel 3, 30. November 2022
- Hier ist der Grund, warum viele KI-Chatbots die Frage ‚Wie viel R ist in einer Erdbeere?‘ nicht richtig beantworten können, NDTV, 29. August 2024
- Gibt es Fragen oder Anfragen, die KI nicht beantworten kann?, Quora, 18. August 2024