top of page
stephanwaltl

GPT o1 - eine Version mit der man Rechnen kann?

In den letzten Jahren hat Künstliche Intelligenz (KI) gewaltige Fortschritte gemacht. Vor allem Modelle wie GPT-4 haben gezeigt, was möglich ist, wenn Maschinen lernen, Sprache zu verstehen und darauf zu reagieren - jedoch wissen wir, dass die Systeme bei komplexen Aufgaben an ihre Grenzen stossen und man beim Denken nachhelfen muss.


Ein kleines Beispiel, das ich selbst probiert habe, war dieses Bild in die kostenpflichtige Version GPT-4o hochzuladen und auf das Ergebnis zu warten.



Es wurde schnell erkannt was die Frage war und das 4o-Modell hat blitzschnell den fehlenden Innenwinkel errechnet! Ergebnis: der fehlende Winkel y beträgt laut ChatGPT 150°. Problem - das ist falsch! Denn GPT 4o hat nicht bedacht, dass die beiden Angaben 65° und 75° nicht der Innenwinkel des 5-Ecks sind, sondern 2 Aussenwinkel von denen man erst von den dargestellten 180° zurückrechnen muss. Ich hab ChatGPT dann drauf hingewiesen, das System hat sich brav entschuldigt und die Rechnung dann mit korrektem Ergebnis durchgeführt.


Das ist jetzt keine wirklich komplexe Aufgabe, mit der man einen Mathematikprofessor um den Verstand bringt, aber wenn das System in dieser einfach Beispiel schon Fehler macht, was passiert dann erst bei wirklich schwierigen Aufgaben?


Ich denke OpenAI hat das erkannt und versucht jetzt einen weiteren Sprung nach vorne. Inzwischen wissen wir, dass dies mit der Einführung eines neuen Modells im Hintergrund passiert - diesmal heisst es OpenAI o1 - wobei o vermutlich wieder für "omni" steht oder wie manche vermuten "optimized". OpenAI verkauft das System mit dem Hinweis: "Strong reasoning capabilities and broad world knowledge" bedeutet auf Deutsch "starke Fähigkeiten zum logischen Denken und ein breites Allgemeinwissen".


Das ist meiner Ansicht nach zwar wieder nur altbekanntes US-amerikanisches Wichtiggepimpel - aber bitte. Jedenfalls soll laut OpenAI das Besondere an den neuen Modellen der o1-Serie ihre Fähigkeit sein, sich mehr Zeit fürs Nachdenken zu nehmen, bevor sie eine Antwort geben. Klingt simpel, oder? Aber genau hier liegt der Schlüssel. Viele KI-Modelle, einschließlich der bisherigen GPT-Generationen, reagieren in der Tat oft sehr schnell auf Eingaben – oft so schnell, dass sie manchmal auf den ersten „intuitiven“ Impuls setzen, anstatt tiefere, durchdachtere Lösungen zu liefern.


Die o1-Modelle sollen hingegen darauf trainiert sein, komplexe Aufgaben gründlicher anzugehen. Sie simulieren eine Art „mentalen Denkprozess“, der es ihnen erlaubt, verschiedene Strategien auszuprobieren, Fehler zu erkennen und schlussendlich genauere und fundiertere Antworten zu geben.


Die Tests sprechen laut OpenAI für sich, denn während das GPT-4-Modell beispielsweise nur 13 % der Aufgaben in einer Qualifikationsprüfung für die Internationale Mathematik-Olympiade (IMO) lösen konnte, erzielte das neue o1-Modell ganze 83 %. Ähnliche Ergebnisse zeigt das Modell in der Programmierung und anderen komplexen wissenschaftlichen Fragen.


Nachdem ich das das neue o1-Modell als PreView kurzfristig mit Büroklammer bei mir im ChatGPT hatte, habe ich die Chance genutzt, mein obiges Winkelberechnungsbild in das neue o1-Model geladen. Und siehe da, o1 hat sich etwas länger mit der Analyse des Bildes beschäftigt und tatsächlich den fehlenden Winkel aufs erste Mal richtig mit 70° berechnet!


Die "Dauer des Denkens" wird sogar dargestellt:

Das ist zwar jetzt keine Meilenstein in der KI-Geschichte, aber halt doch wieder ein kleiner Schritt in die richtige Richtung > hin zu korrekten Ergebnissen.


P.S.: Die "Version o1" wird wie jetzt auch schon die "Version 4o" kostenpflichtig sein, aber keine Sorge - o1 mini ist das (noch) kostenlose Pendant! Die Büroklammer ist leider wieder verschwunden - aber das nur eine Frage der Zeit bis sie wieder zurückkommt!

18 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page