top of page

Wenn ChatGPT zum Zyniker wird!

Aktualisiert: 20. Aug.

Mit viel Pathos wurde letzte Woche GPT-5 in die Welt geschmissen und wie es inzwischen üblich ist, dürfen Heerscharen von KI-Experten innerhalb weniger Stunden deren persönlichen Kommentar und eine technische Einschätzung abgeben. Ich selbst nehme mich da gerne ein wenig zurück. A. weil ich ein reales Leben habe und B. weil der "erste Run" meistens der schlechteste ist.


Mit einer Woche Abstand und meinen eigenen Tests die ich für gewöhnlich für jede (neue) generative Sprachmodell durchlaufe lässt sich für mich sagen, das GPT-5 bei den einfachen Arbeiten einen Rückschritt gemacht hat und bei den schwierigen Aufgaben eine Aufwertung bekommen hat. Jedoch verwenden die meisten von uns ChatGPT für einfache Aufgaben und genau da wurde das was eigentlich „smarter“ hätte sein sollen, plötzlich "dümmer".


GPT-5 wirkte plötzlich wie der geistig unterernährte Cousin von GPT-4o. Statt präziser Antworten gab es oft Einheitsbrei, dafür aber blitzschnell. Super, wenn man gerne in Rekordzeit die falsche Antwort bekommt. Auch die Custom GPTs mit denen jedenfalls ich sehr viel arbeite, waren völlig überfordert und konnten die einfachsten Dinge die vorher reibungslos gelaufen sind, nicht mehr erkennen. Teilweise musste ich Dokumente die ich schon länger im RAG hatte neu hochladen, um sie überhaupt wieder auslesen zu können. Im Fachjargon nennt man das glaube ich: What a blunder! oder wie wir im Deutschen sagen würden: Griff ins Klo!


Inzwischen hat OpenAI mehrfach zurückgerudert. Neben GPT-5 kann man über die Einstellungen auch die "alten" Modelle (wie o3 oder 4o) wieder in die Auswahl legen und auch die Reasoning-Auswahl wurde erweitert bzw. zurückgeholt. Sam Altman persönlich musste den PR-Feuerlöscher auspacken und versprach, das alles ganz schnell gefixt wird und ja das ganze hat sich inzwischen auch beruhigt. Aber die Message kann man nicht mehr zurückholen; das ist wie in der Politik! Aber zu viele Fehler darf man sich ab sofort nicht mehr erlauben, die Userbase ist neuerdings sehr fragil!


Apropos User! Im Laufe meiner Tests ist mir eine Neuerung aufgefallen, die OpenAI so nebenbei in die persönlichen Einstellungen reinprogrammiert hat. Mit Klick auf das Profilbild > ChatGPT individuell konfigurieren gibt es den Punkt: Welche Persönlichkeit soll ChatGPT haben?

Die Auswahlmöglichkeiten lauten:

  • Standard ("Fröhlich und anpassungsfähig") dazu der Hinweis: „Schnell, clever und darauf ausgelegt, das Gespräch am Laufen zu halten“

  • Zyniker ("Kritisch und sarkastisch") dazu der Hinweis: „Ein mürrischer Bibliothekar, der deine Neugierde stillt“

  • Roboter ("Effizient und unverblümt") dazu der Hinweis: „Frage rein, Antwort raus“

  • Zuhörer ("Einfühlsam und unterstützend") dazu der Hinweis: „Verlässlicher Begleiter, der dich auf deinem Weg unterstützt“

  • Geek ("Neugierig und begeistert") dazu der Hinweis: „Jedes Gespräch ist ein Experiment der Freude“


Schön BIAS-gerecht :-) von links nach rechts: Standard, Zyniker, Roboter, Zuhörer und Geek!
Schön BIAS-gerecht :-) von links nach rechts: Standard, Zyniker, Roboter, Zuhörer und Geek!

Technisch bedeutet das: Der gewählte „Persönlichkeitstyp“ legt ein dauerhaftes System-Prompt-Template fest, das auf jede Interaktion angewendet wird. Sprich, die einheitliche Voreinstellung ignoriert einen Kontextwechsel! Glaubt OpenAI tatsächlich, dass wir Menschen nur eine Lebenssituation haben und man dann immer als Zyniker oder einfühlsamen Zuhörer unterwegs ist? Vielleicht hätten sie mal deren eigene KI fragen sollen, ob sowas Sinn macht oder nicht!

 
 
 

Kommentare


bottom of page