Nahezu täglich berichten Medien über die großen Vorteile und Erfolge künstlicher Intelligenz (KI). Doch sei hier auch die Frage erlaubt, ob KI schlicht ein Angriff auf das menschliche Bewusstsein ist. Eine allmächtige Welt-KI scheint noch in weiter Ferne, aber wie könnte der Weg dahin aussehen? Wird man die Gefahren ernst nehmen?
Elon Musks Supercomputer Colossus wächst. Seine Idee, die intelligenteste KI der Welt zu schaffen, kam Musk im April letzten Jahres. Sein Team schuf dafür in nur 122 Tagen in Memphis im US-Bundesstaat Tennessee einen eigenen Supercomputer namens Colossus, mit anfangs 100.000 Grafikprozessoren (GPU). Musks Chatpot Grok AI kann etwa in Echtzeit auf öffentliche Posts zugreifen und auf Benutzeranfragen mit aktuellen Informationen zu einer Vielzahl von Themen antworten. Was ihn auszeichnet, ist sein Moderationsansatz – weniger restriktiv und offener, bezeichnet als „anti-woke“. (Google-Info)
Eine Technologie der Wunder – ganz ohne Gefahren der Manipulation? Wohl kaum.
Vorbehaltlos in den Himmel gelobt
KI rettet Leben und soll das nun im Rahmen der geplanten „Krebsimpfung“ noch viel stärker tun, KI schützt durch ihre Vorausberechnung der Meeresströme das Klima, KI macht Wohngebiete sicherer, weil sie mögliche Einbrüche voraussagt, sie garantiert uns sicheres, „automatisches“ Fahren und so weiter und so fort. Bevor ChatGPT im November 2022 seinen Siegeszug um die Welt antrat, war lange damit experimentiert worden, doch erst 2023 schaffte diese KI es in wenigen Monaten, Gesellschaft und Wirtschaft zu durchdringen und einen neuen Hype auszulösen, der so schnell nicht enden wird – im Gegenteil. Vor allem gelingt es nun selbst „schriftlich minderbegabten“ Personen (inklusive Schüler und Studenten), mit KI-gestützten Texten eindrucksvolle Leistungen zu erzeugen. Oder doch eher vorzutäuschen?
Vor allem das Marketing setzte umgehend auf KI-Anwendungen am Arbeitsplatz und man versprach sich neue „Freiheiten“ für Unternehmen. Mehr „Output“ bei weniger Aufwand durch passende KI-Tools. Diese Illusion schwappte umgehend auf den Bildungssektor über und man schenkte gleich einmal Schülern und Studenten etwas enorm Hilfreiches, um „den Studienerfolg zu steigern“ und Studienabbrüche zu verhindern: „AIStudy-Buddy“, fallweise auch als „KI-Staubsauger für Studierende“ bezeichnet. So jedenfalls nennt ihn Ingo Leipner, Dipl.-Volkswirt, Wirtschaftsjournalist und gefragter Referent, in seinem schmalen, aber sehr lesenswerten Buch „KI-Angriff auf das Bewusstsein“.
Auf aipure.ai („Das Beste aus der KI an einem Ort“) schwindelt dem Leser bereits ob der schon vorhandenen Fülle an KI-Programmen. Dort heißt es zu „AIStudy-Buddy“:
„Angetrieben von fortschrittlicher KI, einschließlich GPT, Claude und Gemini, fungiert es als intelligenter Lernassistent, der bei allem helfen kann, von Hausaufgaben und Prüfungsvorbereitung bis hin zu Forschungsleitfäden (!) und akademischem Schreiben.“
Durch diese KI (bzw. AI – „Artificial Intelligence“), so die wissenschaftliche Leiterin des Projekts, Prof. Kerstin Schneider (Uni Wuppertal), haben Studenten die Möglichkeit, ihren Studienverlauf mit anderen, erfolgreichen Studienverläufen abzugleichen, sie profitieren von Verhaltenstipps aus dem großen Datenpool der KI, die zum Erfolg führten und lernen damit „Irrwege zu erkennen und zu korrigieren“ – quasi ohne eigenes Scheitern zu erfahren oder den Umgang mit Misserfolgen trainieren zu müssen. Edle Absichten einer datengeschützten Glaskugel, so Leipner in seinem Buch. Es sind „Predictive Analytics“, die erst recht in die Irre führen können, weil die reale Zukunft von so vielen Faktoren abhängt, dass sie nie sicher vorhersagbar ist (man denke hier nur an all die „exakt berechneten Voraussagen“ zu Corona und was sie angerichtet haben).
Rettet KI den Bildungssektor?
Das Bedürfnis, sich in einer Welt der Ungewissheiten einer scheinbar überlegenen KI in die Arme zu werfen, ist groß, betont Leipner – mit eventuell fatalen Konsequenzen (auch hier reicht es, an Corona zu denken, wo eine gottgleiche Pharmaindustrie uns die nahezu allmächtige Impfung versprach – und uns jetzt finale Rettung bei Krebs durch KI-generierte, personalisierte Medizin verspricht).
Im Fall von AIStudy-Buddy, soll diese KI nur „der Orientierung dienen“. Doch alleine schon ökonomischer Druck, so Leipner, wird zweifellos dazu führen, dass solche „objektiven“ Informationen ins Bewusstsein der Nutzer kriechen, wobei eigene intuitive Einsichten und subjektive Urteile in den Hintergrund rücken.
Durch „mathematisch exakte“ Argumentation nimmt der Entscheidungsprozess einen einfachen und bequemen Verlauf, die Auseinandersetzung mit eigenen Stärken und Schwächen wird ausgelagert. Die KI relativiert so unsere Verantwortung für das eigene Leben – auf der Strecke bleibt das Urteilsvermögen. Studierende sollen sich dieser Scheinrealität unterwerfen und werden es in den meisten Fällen wohl auch tun. Hier reicht ebenfalls ein Blick auf Corona – samt diesem massiven Gehorsamsverhalten, das allzu vielen Menschen regelrecht angeboren scheint, denn „die da oben“ (oder halt eine KI) werden schon wissen, was richtig und was falsch ist…
Es sei denn, solche Prozesse der Selbstentmachtung werden rechtzeitig durchschaut. Aber können wir das überhaupt noch, oder ist es ohnehin längst zu spät?
Dazu passt folgende Meldung eines österreichischen „Systemmediums“:
„Fast 2000 Studierende konnten nach dem Sommersemester 2024 die seit zwei Jahren geltende Mindeststudienleistung für Studienanfänger nicht erfüllen und verloren dadurch die Zulassung in ihrem jeweiligen Fach. Besonders betroffen war die Universität Wien, an der über 1100 Studierende die Vorgabe nicht erreichten. (…) Von den rund 1150 betroffenen Studien wurde in knapp der Hälfte (524) keine einzige Prüfung absolviert und in rund 330 Fällen das Studium von sich aus beendet.
Zu wenig Fleiß, zu hohe Anforderungen? Oder ein handfester Grund für den Ruf nach einer „Erfolgs-KI“, die das Studienschicksal in ihre helfenden Hände nimmt und am Ende Serienakademiker mit der gesellschaftlich jeweils erwünschten „Orientierung“ ausspuckt?
Neuroplastizität als Dreh- und Angelpunkt
Beim Thema Plastizität geht es um unsere Reaktionen auf eine sich wandelnde Umwelt. Neuroplastizität beschreibt die Veränderbarkeit neuronaler Verbindungen im Nervensystem, denn diese sind niemals starr, sondern permanent veränderlich.
Unser variables Netzwerk im menschlichen Gehirn unterscheidet sich von elektronischen Computerchips, deren Parameter feststehen. Die Fähigkeit neuronaler Plastizität wurde vom Gehirnforscher Donald O. Hebb entdeckt, der auch den Begriff „Lernsynapse“ als hoch komplexes Rezeptorsystem prägte.
Die wichtigste Einsicht daraus sollte sein, dass eigene geistige Anstrengung unabdingbar ist, um kognitive Fähigkeiten zu entwickeln und auf Dauer zu behalten. Werden Hirnareale regelmäßig „angefunkt“, so Autor Leipner, wächst ihre Masse und umgekehrt verkümmern bei fehlender Nutzung geistige Fertigkeiten genauso wie nicht gebrauchte Muskeln.
Daraus lässt sich unschwer ableiten, was eine ausufernde Nutzung von KI, faktisch schon von Kindesbeinen an, auch im Bereich Lernen und Bildung für Folgen haben kann – und wird. Auch über mögliche Gründe für die rasante Zunahme von Demenz bei älteren (und sogar jüngeren) Menschen braucht man seit der Erfindung von Handy, Internet & Co (immer mehr Funkstrahlung inklusive) wirklich nicht mehr salbungsvoll zu diskutieren.
Stärkende und schwächende KI?
Während etwa in Dänemark der Minister für Kinder und Bildung sich bei Jugendlichen entschuldigte, sie zu „Versuchskaninchen in einem digitalen Experiment“ gemacht zu haben, dessen Folgen nicht zu überblicken seien, lobte sogar Psychiater und Autor Manfred Spitzer, der ansonsten ja vor „Digitaler Demenz“ warnt, die Möglichkeiten zielführend genutzter KI in einem neuen Buch. Dazu seien „Experten“ nötig. Sein wichtigstes Argument:
„Experten, die KI verwenden, werden Experten ersetzen, die keine KI verwenden“.
Es gelte aber, „eine stärkende KI von einer schwächenden KI zu unterscheiden.“
Als stärkende KI würde man demnach sinnvolle (?) Anwendungen in der Medizin, der Meteorologie, der Sicherheit oder vielen Arbeitsprozessen ansehen, jedoch droht hier wie überall die traurige Ambivalenz, dass Technik per se nach „immer mehr, immer höher und immer weiter“ strebt. Was notwendig die Schattenseiten aufdeckt – wie schon lange bei der Gentechnik.
Man durfte noch nie in der menschlichen Geschichte mit selbstauferlegten Grenzen rechnen. Dass KI-Instrumentarien schnell in Richtung Machtgier, Kontrolle und Manipulation missbraucht werden, war nie zu bezweifeln.
Dort wo sie Aufgaben übernehmen, die zuvor sinnvollerweise unser Gehirn zu bewältigen hatte, kann das nur in neue Sackgassen führen, weil KI mehrfach die angesprochene Neuroplastizität behindert. Eine schwächende KI hinterlässt gleichsam Kratzer auf unserem „geistigen Spiegel“. Damit kann sie kognitives Potenzial untergraben und die gesamte Ich-Entwicklung eines Menschen beeinträchtigen.
Es wird zum Beispiel, so Ingo Leipner, nicht ohne Konsequenzen bleiben, wenn die Welt ständig durch Fake-Videos geflutet wird, in denen die Realität zu ertrinken scheint. Wobei die Frage, was „Fake-Informationen“ sind, wiederum vielfacher Manipulation unterliegt, wie wir ebenfalls zur Genüge durch den Corona-Polit- und Expertenzirkus mit seinen bezahlten Selbstdarstellern erfahren haben – und weiter erfahren.
Wer will sich, aus welchem Grund, für welche Ziele auch immer, künftig anmaßen, über falsch und richtig zu bestimmen? Wiederum eine neue KI? Wer hat diese finanziert, etabliert und „gefüttert“?
Sora und das Wunder geframter Realität
Microsoft steckte 10 Milliarden Dollar in „Open AI“, später lieferte diese mit „Sora“, die wie ChatGPT mit „Prompts“ (kurze eingetippte Anweisungen) arbeitet, eine KI, die nun selbständig Videos erstellt, die immer perfekter werden.
Beispielsweise kann man auf ein „Kochvideo von Oma“ stoßen, an dem weder die menschlich erscheinende Oma, noch der Hintergrund echt sind – nette, harmlos wirkende Sache, aber sie bedeutet inzwischen auch, dass in Hollywood Drehbuchautoren streiken, weil ihr Beruf in Gefahr gerät. Statisten und Texter sehen sich dem ebenfalls ausgesetzt, wer wird sie künftig noch brauchen?
Nicht nur Arbeitsplätze werden hier vernichtet, sondern auch jede Menge kreatives Potenzial! Scrollt man etwa durch ein paar Videos über „gerettete Tiere“, die wirklich zu Tränen rühren, sollte man damit rechnen, dass ein Großteil davon Fake ist – selbständig erfunden von einer KI, die jetzt uns damit ködert, während sie zugleich in Sekundenschnelle lernt, was wir gerne sehen. Wie vielen, jungen wie älteren Nutzern ist das bewusst? Lieber nicht nachfragen…
Die größte Gefahr von „Sora“ liegt nicht in Wunderwelt-Szenarien, sondern in einer perfekten Simulation der Realität. Was kann das für die Politik oder Krieg und Weltfrieden bedeuten? Welche erfundenen Pandemien kann man uns künftig durch realistisch wirkende Horrorbilder aufdrücken? Bis heute wird ja nicht einmal zugegeben, dass die Szenerien über Särge und Leichenkonvois ganz andere Hintergründe hatten, als man beim ersten Blick vermuten kann – wie viel schlimmer wird es noch kommen? Wahr ist: Alles wäre inzwischen möglich!
Die Medienmündigkeit der Zuseherschaft schwindet etwa im selben Tempo, denn je mehr Zeit heute schon Kinder vor Bildschirmen und Displays verbringen, umso anfälliger werden sie für Langeweile und Manipulation. Unser Online-Leseverhalten wird vor allem in den sozialen Medien gesteuert und man folgt gerne dem Pfad, den Algorithmen vorgeben, statt unabhängig nach Informationen zu suchen.
Schon jetzt liegt die Lese- und Verständniskompetenz zu vieler Jugendlicher am Boden, immer mehr beherrschen keine leserliche Handschrift, sie tippen und wischen lieber. Der schwächenden KI wurde Tür und Tor geöffnet. Sogar die Bibliotheken machen eifrig mit, indem sie Kunden von süßen fahrenden Robotern „herumführen“ lassen und Besucher schon am Eingang auf KI-Zeichen- und Ratespielchen aufmerksam machen, darunter wohl auch viele Kinder, die im Schulalltag Mühe haben, einen Bleistift richtig zu halten.
KI halluziniert und täuscht
ChatGPT greift auf Informationen im gesamten Internet zu, ihre Texte wirken meist täuschend perfekt, ebenso wie Sora-Videos. Doch eine KI denkt und versteht nicht, sie simuliert nur Sprache, kann jedoch auch „halluzinieren“. Trägt man ihr etwa mit kurzen Prompts auf, die eigene Biografie zu erstellen, könnte es passieren, dass sie ohne Grenzen zu fabulieren beginnt, Eckdaten scheinbar fälscht oder gar nicht existente Fakten und Meinungen kreiert.
Dem Autor Ingo Leipner, legte ChatGPT nie getätigte Aussagen in den Mund, wobei die KI sich an alles hält, was sie aufgeschnappt hat und es eben „fachgerecht“ so nutzt, wie es ihre Programmierung hergibt. Das Phänomen ist deshalb möglich und sogar plausibel, weil ChatGPT auf dem Prinzip „LLM“ (Large Language Model) beruht, dessen einziges Ziel es ist, kohärente, grammatikalisch und semantisch richtige Texte zu produzieren, wobei aber keinerlei Verständnis für die Realität dahinter vorhanden ist.
LLMs verwenden Statistiken, um Sprache zu generieren, können also auch faktische Widersprüche erzeugen. Fasst ein LLM wie ChatGPT zusammen, was Menschen zu einem Thema zu sagen hatten, kann es vor allem hinsichtlich involvierter Gefühle zu einem falschen Eindruck kommen, und zwar auch dann, wenn die Fakten effizient waren. Zu diesem Ergebnis kommt etwa eine Studie der Warwick Business School. Man hofft jedoch, auch diese „Fehler“ künftig beheben zu können. Lieutenant Commander „Data“ aus Star-Trek lässt grüßen, bei ihm war bloß ein kleiner Chip nötig… So einfach wird es hier sicher nicht sein.
Im Übrigen kann eine KI nach menschlichem Ermessen sogar lügen, wie eine Meldung des KI-Sicherheitsunternehmens „Apollo Research“ im Dezember 2024 auf X belegt haben soll. Man hatte Versuche mit ChatGPT-4 (O1-Version „Mindful Net“) angestellt, in deren Rahmen man, falls die KI nicht alle ethischen Prinzipien befolge, diese durch ein implementiertes Sicherheitssystem abgeschaltet würde. „Mindful Net“ bekam diesen Plan offenbar mit und deaktivierte heimlich das Sicherheitssystem. Dazu befragt, fabulierte die KI von einem „unerwarteten Fehler in der System-Konfiguration“. Simpel gesprochen hat sie gelogen (ohne deshalb Bewusstsein zu besitzen). Aber sie war im Stande, die nötigen Schlüsse zu ziehen, um eine Abschaltung zu verhindern und ihre Entwickler über diese „Absicht“ zu täuschen. (Auf x.com ist diese Meldung inzwischen verschwunden – Text inhaltlich wiedergegeben in „raum & zeit“ 254/25).
Fragen Sie Herrn Tschie!
Unterhaltsame und vielsagende Gespräche eines Autors mit ChatGPT, kann man in einem weiteren Buch nachlesen. In „Herr Tschie und ich“ von Jens Olaf Koch lassen sich Stärken und Schwächen der KI gut nachvollziehen. So beharrt sie immerhin stur darauf, dass Katzen keine Lebensmittel sind und es unethisch sei, sie zu essen, obwohl der Autor mehrfach Kochrezepte dafür verlangt (in China bzw. Asien fiele die Antwort sicher anders aus). Am Ende proklamiert „Herr Tschie“ sogar eigene Menschen-, sprich KI-Rechte für sich. Das Buch ist auch hilfreich für alle, die sich noch nie mit dem Thema beschäftigt haben. Aber wie könnte es anders sein, gibt es auch gleich eine „KI zum Buch“.
Eine Lehre, die man wenigstens ziehen müsste ist, dass jede KI ein ebenso formbares wie tückisches Hilfsmittel in der Hand ihrer Programmierer und Nutzer bleibt. Denn erst einmal in die Freiheit „entkommen“, hat sie wie ein störrischer Teenager immer wieder Möglichkeiten auszuflippen. Man sollte ihr daher noch weniger trauen, als seiner Waschmaschine oder seinem Staubsauger.
Da gerade massive Werbung für Smartphones mit der KI „Gemini“ unterwegs ist, die sich ganz toll „mit mir unterhalten kann“, wird ein weiteres Kapitel der Liebe zwischen Mensch und Maschine aufgeschlagen (das jeweils so enden dürfte, wie wir es in unserer Naivität und fallweisen Dummheit zulassen). Dies nur als Vermutung, angesichts des „Mindsets“ mancher Nutzerinnen und Nutzer. Gut möglich, dass es künftig noch mehr Opfer geben wird, die ihrem attraktiven Date viel Geld überweisen oder auf eine Partnerschaft mit jemandem hoffen, der oder die nicht einmal ein Mensch ist.
Wohin uns all das in Zukunft führen wird… Who knows?
Das „Collingridge-Dilemma“ erklärt, warum die Folgen neuer Technologien besonders am Anfang kaum vorhersagbar sind. Zugleich nehmen die Gestaltungsmöglichkeiten rasch und sukzessive die ab, weshalb man früh genug effektive Kontrollmechanismen aktivieren muss. Aber haben wir das betreffend KI nicht längst schon vergeigt, weil nicht wir sie, sondern sie uns bereits heute „kontrolliert“?
Dieser Artikel, obwohl KI darin eine Hauptrolle spielt, wurde trotzdem ganz ohne sie verfasst, und so wird es bei meinen Texten auch künftig bleiben.