Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

OpenAI mit neuen KI-Modellen: „o1“ zieht Schlüsse aus komplexen Problemen

ChatGPT nimmt unter den Chatbots eine führende Rolle ein. Zu dieser Einschätzung gelangte auch Apple bei der vergangenen WWDC. Mit Apple Intelligence kompatible Geräte werden künftig in der Lage sein, ChatGPT für Anfragen hinzuzuziehen, sofern der Nutzer sein explizites Einverständnis erteilt. Nun stellen die Entwickler das neue Sprachmodell „o1“ zur Verfügung, das vor allem bei komplexen und mehrstufigen Aufgaben punkten soll. Der Schwerpunkt liegt dabei auf dem Coding, der Mathematik sowie weiteren wissenschaftlichen Feldern. Einige Funktionen sind jedoch noch ausständig.


OpenAI verspricht hohe Lösungskompetenz bei mathematischen Problemen
Den Entwicklern OpenAI zufolge nimmt sich o1 mehr Zeit dafür, „über Probleme nachzudenken“ und damit den „Denkprozess zu verfeinern“. Das Modell übt sich also in verschiedenen Strategien, um die Lösung für ein Problem zu eruieren und erkennt eigene Fehler. OpenAI erklärt, dass o1 bei anspruchsvollen Aufgaben aus naturwissenschaftlichen Bereichen (Physik, Chemie und Biologie) ähnlich abschneide wie Doktoranden der jeweiligen Fächer. Als Beispiel nennen die Entwickler die Generierung komplizierter Formeln in der Quantenoptik. Besonders bemerkenswert seien die Resultate bei mathematischen Fragen und beim Programmieren. Viele Funktionen, die GPT-4o beherrscht, sind jedoch noch nicht an Bord: So durchsucht das Modell nicht das Internet nach Informationen und erlaubt gegenwärtig nicht den Upload von Bildern.

Für Programmierer besonders geeignet: „o1-mini“
Neben „o1-preview“ bietet OpenAI auch „o1-mini“ an: Letzteres ist eine abgespeckte und deutlich günstigere Version, die sich vor allem für den Einsatz bei Programmieraufgaben geeignet sei. Beiden Modellen ist gemein, dass sie zunächst lediglich Plus- sowie Team-Nutzern vorbehalten bleiben. o1-mini soll jedoch zu einem späteren Zeitpunkt für die gebührenfreie Nutzung freigegeben werden. Enterprise- und Edu-Nutzer bleiben ebenfalls nicht außen vor: Sie erhalten den Entwicklern zufolge „ab nächster Woche“ Zugriff auf beide Modelle.

Kommentare

Unwindprotect13.09.24 23:57
Und wieder einmal die völlig überzogenen und dummdreisten Anthropomorphismen des OpenAI Marketing-Teams indem man ihr Sprachmodell mit “Doktoranden” gleichzusetzen versucht.
+1
tranquillity
tranquillity14.09.24 14:40
Ich habe gestern mal eine Aufgabe der diesjährigen Mathematikolympiade für Klasse 7 der KI Gemini gestellt. Es war eine Logikaufgabe. Die Antwort war sowas von grottig falsch …
+1
ruphi
ruphi14.09.24 22:06
tranquillity
Ich habe gestern mal eine Aufgabe der diesjährigen Mathematikolympiade für Klasse 7 der KI Gemini gestellt. Es war eine Logikaufgabe. Die Antwort war sowas von grottig falsch …
Du hättest auch Siri fragen können… was sagt das über GPT o1 aus?

Wenn die Faktenaussagen, die OpenAI macht, nicht komplett erlogen sind, dann lässt Folgendes schon einiges erwarten:
https://openai.com/index/introducing-openai-o1-preview/
In a qualifying exam for the International Mathematics Olympiad (IMO), GPT-4o correctly solved only 13% of problems, while the reasoning model scored 83%. Their coding abilities were evaluated in contests and reached the 89th percentile in Codeforces competitions.
+1
Frost14.09.24 22:55
tranquillity
Ich habe gestern mal eine Aufgabe der diesjährigen Mathematikolympiade für Klasse 7 der KI Gemini gestellt. Es war eine Logikaufgabe. Die Antwort war sowas von grottig falsch …

Hier man von einer anderen Stelle aus dem Netz eine Frage aus der aktuellen Mathematikolympiade gestellt an das neue OpenAI Modell o1-preview:
Link zu ChatGPT o1-preview:

Interessant ist dann auch wenn man sich den jeweiligen Gedanken Block mal ausklapt und durchliest.
+2
frankh15.09.24 20:02
Das ist spannend aber man muss bedenken, dass diese Fähigkeiten „hinten“ and das eigentliche Sprachmodell „drangestrickt“ sind. Heisst, wir sehen hier manuell programmierte/ gepromptete Einzelschritte, um zu einer Lösung zu kommen. Das ist zwar deutlich besser, als damalige regelbasierte Expertensysteme, skaliert aber nicht.
0
tranquillity
tranquillity16.09.24 09:41
ruphi
tranquillity
Ich habe gestern mal eine Aufgabe der diesjährigen Mathematikolympiade für Klasse 7 der KI Gemini gestellt. Es war eine Logikaufgabe. Die Antwort war sowas von grottig falsch …
Du hättest auch Siri fragen können… was sagt das über GPT o1 aus?

Dass Bedarf an Logik-KI besteht, bzw. dass es da Nachholbedarf gibt.
0
Unwindprotect16.09.24 11:28
ruphi
Wenn die Faktenaussagen, die OpenAI macht, nicht komplett erlogen sind, dann lässt Folgendes schon einiges erwarten:

Das Problem - wie eigentlich immer bei OpenAI - wenn man es aus einem begrenzten Blickwinkel innerhalb des Informatik-Fortschritts sieht, dann kann so etwas schon für manche Anwendungsfälle interessant werden. Bei OpenAI steckt da jedoch etwas anderes dahinter:

Man nimmt ein gemeinhin als "schwierig" bekanntes Problemfeld wie "Mathematik" und dengelt ein System zusammen, das in derartigen Tests statistisch signifikant besser abschneidet als das aktuelle Produkt (welches dafür schlicht vollkommen ungeeignet ist). Dann stellt man sich hin und vergleicht diese Ergebnisse mit Klausurergebnissen von Experten. Danach stellt man das Produkt als gleichwertig zu diesen Experten hin. Die gewünschte Marketing-Story die man so platzieren will ist:

"OpenAI ist eine menschengleiche künstliche Intelligenz, die bereits jetzt hochgradige Akademiker ersetzen kann. Wir erwähnen zwar nicht, dass es an extrem leichten anderen Aufgaben immer noch kläglich scheitert, aber das machen wir nur damit Du glaubst, der Level auf dem wir stehen ist bereits viel höher."

Man lenkt also mit solchen Meldungen vor allem von den immer noch fundamentalen Problemen des Produkts ab. Für mich ist eine solche marketinggetriebene Massentäuschung einfach unredlich und falsch.
+3

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.