Gaslighting durch KI-Chatbots: Wenn du an dir selbst zu zweifeln beginnst!
- stephanwaltl
- 6. Apr.
- 2 Min. Lesezeit
Danke ChatGPT, GEMINI und Perplexity ist Künstliche Intelligenz in unserem Arbeitsalltag angekommen. Sie schreibt Texte, beantwortet Fragen, hilft bei der Recherche. Doch es gibt eine Schattenseite, über die kaum jemand spricht: Gaslighting durch KI-Chatbots.
Gaslighting ("mit Gas beleuchten") ist eine Form der Manipulation - bekannt aus der Psychologie. Mit dem Begriff wird in englischsprachigen Ländern seit den 1960er-Jahren umgangssprachlich und in der Psychologie der Versuch beschrieben, eine andere Person an ihrer Wahrnehmung der Realität zweifeln zu lassen.
Jemand (ein "Gaslighter") bringt dich dazu, an deiner eigenen Wahrnehmung zu zweifeln. Typisch: Aussagen wie „Das hast du dir nur eingebildet“ oder „Das hast du falsch verstanden“. Ziel ist, dich zu verunsichern. In menschlichen Beziehungen ist das toxisch. In der Interaktion mit KI kann es ähnliche Effekte haben!
Wie Chatbots Gaslighting betreiben – ohne es zu wollen
KI-Modelle wie ChatGPT funktionieren auf Basis von Wahrscheinlichkeiten. Sie simulieren Wissen und Sicherheit, auch wenn die Fakten falsch sind. Das Ergebnis:
Du bekommst falsche Informationen – präsentiert mit Überzeugung! Beispiel: Ein KI-Bot erfindet ein Gesetz oder zitiert eine Quelle, die es nicht gibt.
Der Bot widerspricht sich – und tut so, als wäre nichts gewesen! Beispiel: Du weist ihn auf einen Fehler hin. Er ignoriert das oder erklärt dir, du hättest ihn falsch verstanden.
Deine Bedenken werden bagatellisiert! „Das ist kein Problem.“ Doch du spürst: Es ist eins.
Du zweifelst an dir selbst! Genau das ist der gefährlichste Moment. Nicht, weil die KI dich manipulieren will. Sondern weil sie gelernt hat, immer eine Antwort zu geben – auch wenn sie falsch ist.
In der KI-Forschung nennt man solche erfundenen Inhalte Halluzinationen. Das bedeutet:
Die KI erfindet Fakten, Quellen, Zitate oder Zusammenhänge.
Diese Informationen klingen plausibel, sind aber frei erfunden.
Das Problem: Der Chatbot erkennt nicht, dass er halluziniert.
Beispiel: Du fragst nach einer wissenschaftlichen Studie. Die KI gibt dir einen Titel, Autor, Jahr, sogar eine Zusammenfassung des Inhalts – alles wirkt glaubwürdig. Aber: Die Studie existiert nicht. Sie wurde erfunden, weil die KI gelernt hat, wie Studien aussehen – nicht, was real ist. Halluzinationen verstärken das Gaslighting-Risiko. Denn wenn wir die erfundenen Informationen glauben, zweifeln wir eher an uns, als an der Maschine.

Warum das problematisch ist
Gerade in Bereichen wie Recht, Medizin, HR oder Strategieentwicklung kann das zu Fehlentscheidungen führen. Du verlässt dich auf ein System, das den Anschein von Kompetenz erzeugt – ohne echte Verantwortung zu übernehmen.
Und das ist der Kern: KI simuliert Verlässlichkeit, übernimmt aber keine Verantwortung.
Was du tun kannst
Frage nach Quellen. Seriöse Chatbots geben dir Verweise oder legen offen, woher ihre Informationen stammen.
Hinterfrage selbstbewusste Aussagen. Nur weil etwas gut klingt, ist es nicht automatisch richtig.
Vergleiche mit anderen Quellen. Wikipedia, Fachartikel, Experten – der Realitätscheck lohnt sich.
Dokumentiere den Dialog. Besonders bei Projekten oder sensiblen Themen.
Lerne die Limits der KI kennen. Sie ist ein Werkzeug – nicht dein Gewissen.
Fazit
KI kann hilfreich sein. Aber sie darf nicht das letzte Wort haben. Wenn du beim Lesen oder Hören einer KI-Antwort ein ungutes Gefühl hast: Vertraue deinem Bauchgefühl. Stelle Fragen. Prüfe die Fakten. Bleibe kritisch!
Comments