Det ser ut til at OpenAI har skrudd opp tempoet ytterligere. Mens vi fortsatt venter på at støvet skal legge seg etter lanseringen av GPT-5.3-Codex for bare noen uker siden, har referanser til en helt ny modell GPT-5.4 begynt å dukke opp i kildekoden. Dette er ikke bare rykter fra anonyme kilder, men faktiske spor i OpenAIs egne systemer som gir oss et unikt innblikk i hva som kommer.
Spor i kildekoden og feilmeldinger
Lekkasjen startet da en ingeniør hos OpenAI ved en feil publiserte kodeoppdateringer i det offentlige Codex-repositoriet på GitHub. Her ble GPT-5.4 nevnt spesifikt som en påkrevd versjon for nye funksjoner. Kort tid etter ble det observert feilmeldinger hos enkelte brukere som eksponerte interne ID-er som `gpt-5.4-ab-arm1-1020-1p-codexswic-ev3`. Dette bekrefter at modellen allerede er rullet ut på test-servere og gjennomgår aktiv A/B-testing.
| Funksjon | Detaljer fra lekkasjen | Betydning |
|---|---|---|
| Kontekstvindu | 2 millioner tokens | Kan lese 5000 sider tekst i én omgang |
| Bildebehandling | "detail": "original" | Ingen komprimering, piksel-perfekt nøyaktighet |
| Hastighet | "Fast mode" | Ny modus for lynrask respons |
| Arkitektur | "One-pass" inferens | Optimalisert for hurtighet fremfor tung resonnering |
Enormt minne og krystallklare bilder
Det mest imponerende med GPT-5.4 er det ryktede kontekstvinduet på 2 millioner tokens. Dette er en femdobling fra dagens GPT-5 og vil i praksis bety at modellen kan holde hele kildekoden til store programvarer eller tusenvis av sider med dokumentasjon i minnet samtidig. I tillegg avslører koden en ny parameter for bildebehandling som lar modellen se råbildefiler uten komprimering. Dette er et stort skritt for profesjonelle brukere som jobber med medisinske bilder eller komplekse tekniske tegninger hvor hver piksel teller.
Fra lanseringer til kontinuerlig oppdatering
Det som kanskje er mest interessant med disse lekkasjene, er hvordan OpenAI har endret strategi. Vi ser ikke lenger de store, årlige lanseringsfestene. I stedet ser det ut til at de har gått over til en modell for kontinuerlig utvikling, der nye versjoner rulles ut i det stille for testing i verktøy som Codex før de når den brede massen. Referansene til en egen "Fast mode" tyder også på at de jobber hardt med å gjøre de massive modellene mer effektive og brukervennlige i hverdagen.
Selv om OpenAI raskt fjernet sporene fra GitHub, er katten ute av sekken. GPT-5.4 ser ut til å bli en modell som prioriterer enormt minne og ekstrem presisjon, og alt tyder på at den er rett rundt hjørnet.
