OpenAI: Neues Coding-Model GPT-5.1-Codex-Max vorgestellt

1 month ago 3

OpenAI hat mit GPT-5.1-Codex-Max ein neues, agentenorientiertes Coding-Modell vorgestellt, das den bisherigen GPT-5.1-Codex als Standard in Codex ablöst. Der Fokus liegt dabei auf langen, komplexen Softwareprojekten. Durch ein Verfahren namens „Compaction“ kann das Modell seine eigene Historie verdichten und so über viele Kontextfenster hinweg weiterarbeiten. Das soll etwa für stundenlange Debug-Sessions, große Refactorings oder mehrstündige Agent-Loops nützlich sein.

Meet GPT-5.1-Codex-Max, our latest frontier agentic coding model, available in Codex starting today.

It’s faster, more capable and token-efficient, and able to work persistently on long tasks with built-in compaction abilities.

— OpenAI Developers (@OpenAIDevs) November 19, 2025

In Benchmarks wie SWE-Lancer liegt Codex-Max klar vor dem Vorgänger und ist dabei obendrein noch token-effizienter. Auf SWE-bench erzielt es mit „medium“-Reasoning bessere Ergebnisse, verbraucht aber rund 30 % weniger Tokens. Für nicht zeitkritische Aufgaben gibt es zusätzlich eine neue Stufe „Extra High“. GPT-5.1-Codex-Max ist das erste Modell der Reihe, das explizit auch auf Windows-Umgebungen trainiert wurde. Zugänglich ist es schon jetzt in Codex (ChatGPT Plus, Pro, Business, Education, Enterprise), der API-Zugang soll folgen.

AngebotBestseller Nr. 1

AngebotBestseller Nr. 2

AngebotBestseller Nr. 3

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Read Entire Article