Twee nieuwe AI-modellen van OpenAI: o3 en o4-mini zijn beschikbaar. Ze denken langer na en hebben een breder scala aan functies, zoals het genereren van afbeeldingen.
Verwarrende naamgeving
Er zijn twee nieuwe modellen toegevoegd aan de o-serie van OpenAI: o3 en o4-mini. Twee modellen voor visueel redeneren. Deze twee modellen zijn nieuw en niet te verwarren met 4o en 4o-mini of o3-mini. Die laatste is al beschikbaar. o3 werd in december aangekondigd door OpenAI CEO Sam Altman.
Hij kondigde ook aan dat hij de modellen in de toekomst betere namen wilde geven.
OpenAI o3 en o4-mini eigenschappen
Het bijzondere aan de o-serie is dat deze bijzonder intelligent zou zijn. De nieuwe modellen hebben toegang tot een hele reeks tools. Volgens de blogpost van OpenAI zijn dat onder andere webbrowsen, Python, afbeeldingen genereren, afbeeldingen en bestanden analyseren, canvas, bestanden zoeken en de geheugenfunctie.
De modellen zijn ook bijzonder goed in het oplossen van complexe wiskundige problemen, codering en wetenschappelijke taken – inclusief visuele kracht. De modellen bepalen zelf wanneer ze welke vaardigheden nodig hebben. Dit is weer een belangrijke stap in de richting van autonoom AI-gedrag.
AI-training en AI-beveiliging
Zoals we weten worden de o-modellen getraind met behulp van reinforcement learning via gedachteketens. Dit verwijst naar gedachteketens waarin herhaaldelijk bevestiging wordt gezocht voor correcte beslissingen.
Volgens OpenAI kunnen de modellen nu ook nog beter nadenken over hun eigen beveiligingsrichtlijnen, waardoor ze bijzonder robuust zijn. Ze kunnen bijvoorbeeld aanvalsscenario’s begrijpen en blokkeren.
In een evaluatie door het beveiligingsteam van OpenAI presteerden het Prepardeness Framework in een bijgewerkte versie, o3 en o4-mini bijzonder goed. In geen van de drie categorieën (biologische en chemische mogelijkheden, cyberbeveiliging en AI-zelfverbetering) werd het beveiligingsrisico als hoog beoordeeld, aldus OpenAI. OpenAI heeft ook verschillende benchmarks gepubliceerd.
Meer prestaties en betere beeldverwerking
OpenAI beschrijft ook hoe “meer rekenkracht betere prestaties oplevert”. “Door het schalingspad opnieuw te volgen – dit keer in RL – hebben we zowel de trainingsberekening als de inferentietijd met nog een orde van grootte verhoogd en nog steeds significante prestatieverbeteringen gezien.”
Dit bevestigt dat de prestaties van de modellen blijven verbeteren naarmate ze meer mogen denken. Tegelijkertijd zijn de nieuwe modellen kostenefficiënter dan hun voorgangers.
In een aparte blogpost legt OpenAI ook uit hoe o3 en o4-mini kunnen “denken met beelden”. Dit betekent: “Ze zien niet alleen beelden, maar kunnen ook visuele informatie direct integreren in hun redeneerketen.” Dit betekent bijvoorbeeld ook dat de modellen zelfstandig afbeeldingen kunnen roteren of erop kunnen inzoomen en deze stappen in het “denkproces” kunnen verwerken.
OpenAI o3 en o4-mini beschikbaarheid
OpenAI o3, o4-mini en o4-mini-high zijn nu beschikbaar voor Plus, Pro en Team gebruikers. Ze vervangen o1, o3-mini en o3-mini-high. Ze kunnen ook worden gebruikt via de API (Chat Completions + Responses API).