top of page

Frequency Penalty – wie man Wiederholungen in KI-Texten steuert!

Wenn man mit KI-Textgeneratoren wie ChatGPT & Co arbeitet, stößt man relativ schnell auf ein Problem: Manche Wörter oder Phrasen wiederholen sich ständig. Der Text wirkt schnell monoton und langweilig. Eine Möglichkeit das zu steuern ist die Temperatur - zu deutsch: die Wahrscheinlichkeit der Antworten. Was wir Menschen halt an diesen KI Ergebnissen nicht so gerne haben, ist eben genau diese Halluzinationen, weil halt die Antworten nur "wahrscheinlich" richtig sind. Also zwinge ich "meine" KI-Bots dazu möglichst wenig zu fantasieren.


Damit werden die Antworten zwar netterweise richtiger - aber gleichzeitig der Schreibstil langweiliger. Um diesen Umstand wegzubekommen, muss man mit kreativem Prompting dagegenhalten und so Sätze wie:

  • verwende ein großes Vokabular,

  • vermeide Wortwiederholungen

  • jeder Satz soll neue Begriffe und Synonyme enthalten

  • usw.

im Prompt ergänzen.


Aber es geht auch noch etwas einfacher: mit Frequency Penalty (FP). Hierbei handelt es sich um einen Parameter, den man beim Prompting voreinstellen kann. Er steuert, wie oft Wörter (genauer gesagt "Tokens") im Text wiederholt werden dürfen. Ausgehend vom Standard-Wert 0 reicht die Spanne für gewöhnlich von -2,0 bis +2,0.

  • Dreht man den FP ins Positive verringern sich die Wiederholung. Der Text wird vielfältiger, kreativer und die KI nutzt ein größeres Vokabular.

  • Dreht man den FP ins Negative erlaubt man mehr Wiederholungen. Der Text wird konsistenter, kann aber eintönig wirken.


Gerne ein Beispiel aus der Praxis:

  • Niedrige Penalty: Urlaub in Österreich bedeutet Entspannung. Urlaub in Österreich bietet viele Möglichkeiten. Urlaub in Österreich ist für alle ideal.

  • Hohe Penalty: Ein Urlaub in Österreich bedeutet jede Menge Entspannung. Von den Alpen bis zu den Seen findest du vielfältige Möglichkeiten – perfekt für Familien, Sportbegeisterte und Genießer.


Für gewöhnlich kann der Frequency Penalty nicht über Prompting eingestellt werden, da nicht alle generativer KI-Chatbots diese Anweisung verstehen. Jedoch habe ich mir einen Hinweis in den jeweiligen persönlichen Einstellungen hinterlegt und dadurch konnte ich den Wortschatz meiner Bots erhöhen!


Doch was tut man, wenn man nicht mit der KI auf direktem Wege schreibt, sondern über den Umweg einer API? Dazu gibt es die JSON-Anweisungen:


Beispiel:

{

"model": "gpt-5",

"prompt": "Schreibe einen Text über Urlaub in Österreich.",

"frequency_penalty": 2.0

"presence_penalty": 0.0

}


Wie ihr seht, habe ich hier gleich noch einen zusätzlichen Parameter eingetragen: den Presence Penalty (PP). Anders als als die Frequency Penalty, die Wiederholungen ein- und desselben Wortes bestraft, verhindert die PP schon das erste Auftreten eines Wortes, damit es eher vermieden oder nur einmal genutzt wird.


Auch hier ein 2 Beispiele zur Gegenüberstellung:

Presence Penalty = 0.0 (niedrig, keine Einschränkung)

  • Ein Urlaub in Österreich bietet Berge, Seen und Städte wie Wien oder Salzburg. Viele Menschen genießen Wandern in den Alpen, Skifahren im Winter oder Baden im Sommer. Österreich ist bekannt für Kultur, Natur und Gastfreundschaft.

  • Das Modell wiederholt ähnliche Themen (Natur, Berge, Alpen, Skifahren, Wandern).

Presence Penalty = 2.0 (hoch, starke Einschränkung)

  • Ein Urlaub in Österreich kann sehr vielfältig sein. Manche interessieren sich für Musik, andere für Geschichte oder regionale Küche.

  • Das Modell vermeidet Wiederholung von Natur- oder Sportthemen. Es „springt“ schneller zu neuen, weniger naheliegenden Konzepten.


Verwendet man beide Begriffe, dann muss man eine gute Balance finden. Zu hohe Werte bei beiden Parametern führen zu Texten, die unnatürlich wirken, weil das Modell gezwungen wird, ständig neue Begriffe und Themen einzuführen.
Verwendet man beide Begriffe, dann muss man eine gute Balance finden. Zu hohe Werte bei beiden Parametern führen zu Texten, die unnatürlich wirken, weil das Modell gezwungen wird, ständig neue Begriffe und Themen einzuführen.


 
 
 

Comments


bottom of page