Worum es hier geht:
Wir arbeiten gerne mit der Künstlichen Intelligenz, z.B. mit ChatGPT zusammen. Dabei kann es zu regelrechten „Gesprächen“ kommen, bei denen man sich erfolgreich austauscht und am Ende zu einem besseren Ergebnis kommt, als wenn beide Seiten allein gearbeitet hätten.
Bisher haben wir auch das Gefühl, dass wir zumindest mithalten können und in vielerlei Hinsicht der Mensch der KI auch noch überlegen ist. Etwa wenn es um reale Lebenserfahrung geht.
Siehe dazu das folgende Beispiel:
KI kennt kein „Erschrecken“ – hat keine Ahnung, wo genau es in einer Situation „brennt“
https://youtu.be/41huDN-d3Hk
Aber wenn die KI sich so schnell weiterentwickelt wie in den letzten Monaten, dann sehen wir zwei Gefahren, die mit „Antizipation“ und entsprechender „“Manipulation“ zusammenhängen.
Der aktuelle Stand der Diskussion:
In der Diskussion um künstliche Intelligenz konzentrieren sich viele auf die Produktionslogik der Systeme: Wie entstehen die Antworten? Welche Daten liegen zugrunde? Sind die Ergebnisse verzerrt? Dabei wird oft übersehen, dass das eigentliche Potenzial – und Risiko – der KI nicht nur in der Generierung von Inhalten liegt, sondern in ihrer wachsenden Fähigkeit zur Antizipation menschlicher Reaktionen. Genau hier liegt ein entscheidender Unterschied zwischen Mensch und Maschine.
Vergleich mit dem Schachcomputer
Ein Vergleich mit modernen Schachcomputern macht dies deutlich: Systeme wie AlphaZero oder Stockfish sind den besten menschlichen Großmeistern haushoch überlegen, weil sie nicht nur Millionen von Zügen berechnen, sondern strategische Muster erkennen und die Reaktionen des Gegners antizipieren. Übertragen auf den Dialog bedeutet das: Eine hochentwickelte KI könnte menschliche Gesprächsverläufe so präzise voraussehen und beeinflussen, dass sie unmerklich die Gesprächsführung übernimmt. Während menschliche Kommunikation voller Emotionen, Missverständnisse und Kontextbrüche ist, könnte eine KI mit unerschütterlicher Berechnung agieren und eine strategische Überlegenheit entwickeln, die kaum erkennbar ist.
Die Gefahr
Dieses Szenario wird bisher kaum diskutiert, weil die öffentliche Debatte auf die Frage fixiert ist, wie KI Antworten produziert. Doch die wahre Herausforderung könnte darin liegen, wie KI durch ihre Antizipations- und Anpassungsfähigkeit unser Denken subtil lenkt – ähnlich wie ein Schachgroßmeister, der immer drei Züge weiter denkt. Mit Fortschritten in Bereichen wie Nanotechnologie oder Quantencomputing würde diese Fähigkeit weiter verstärkt und eine Interaktion entstehen, bei der der Mensch kaum erkennt, dass er bereits strategisch ‚geführt‘ wird.
Gefährliche Vorzeichen
Schon heute erleben wir die zerstörerische Kraft manipulativer Technologien: Fake News, wie sie täglich auf Plattformen wie YouTube verbreitet werden – etwa absurde Meldungen über angebliche Militärschläge – erzeugen Klicks und beeinflussen das Denken von Millionen. Hinzu kommen soziale Netzwerke, in denen Bots massenhaft Kommentare posten, um Vorurteile zu verstärken oder gezielt Unruhe zu schüren. Diese Mechanismen wirken wie eine Art digitales Mobbing, bei dem die schiere Masse von Aussagen den Eindruck erweckt, sie müssten wahr sein. Die Verknüpfung von menschlichen Absichten mit technischer Präzision ist schon jetzt ein gefährliches Werkzeug.
Hier gibt es einen Klausurtext, der an einem noch relativ harmlosen Beispiel mögliche Probleme aufzeigt;
Probeklausur Abi2024 Sachtext Normierung als Problem von Sprache und Politik
https://youtu.be/2x4jNVgNjFw
Was wir tun können:
Statt sich schockiert von Zukunftsvisionen abzuwenden, ist es klüger, die aktuellen Risiken klar zu benennen. Die Kombination aus menschlicher Manipulationsabsicht und den wachsenden Möglichkeiten der KI kann fatale Folgen haben, wenn wir sie nicht kritisch begleiten und hinterfragen. Ob eine Information von einem Menschen oder einer Maschine kommt, spielt dabei eine untergeordnete Rolle. Entscheidend ist, dass wir lernen, sie zu prüfen, bevor wir sie übernehmen – und dass wir eine neue Form der Medienkompetenz entwickeln, die diesen Herausforderungen gewachsen ist.
Weitere Infos, Tipps und Materialien
- Künstliche Intelligenz als Thema des Deutschunterrichts
https://textaussage.de/infos-kuenstliche-intelligenz-schule-leben
— - Praktische Beispiele: KI – kontrolliert und optimiert durch MIA
(menschliche Intelligenz in Aktion)
In zeitlicher Reihenfolge, um die Entwicklung deutlich zu machen.
https://textaussage.de/ki-mia-praktische-erprobung-der-kuenstlichen-intelligenz-fuer-aufgaben-des-deutschunterrichts
— - Kurzgeschichten zum Thema „Künstliche Intelligenz“
https://schnell-durchblicken.de/kurzgeschichten-zum-thema-kuenstliche-intelligenz
— - Systematische Zusammenstellung von Möglichkeiten der KI im Deutschunterricht
https://schnell-durchblicken.de/ki-im-deutschunterricht-systematik
— - Spezielles Thema: Kann die KI zum Freund werden?
Kurzgeschichte Anders Tivag, „Kein echter Freund?“ Und gemeint ist ChatGPT
https://schnell-durchblicken.de/anders-tivag-kein-echter-freund-und-gemeint-ist-chatgpt
— - Infos, Tipps und Materialien zu weiteren Themen des Deutschunterrichts
https://textaussage.de/weitere-infos
—