
OpenAI hat heute GPT-5.4 mini und nano vorgestellt, zwei kompakte Sprachmodelle, die sich vor allem an Entwickler richten. Die Modelle sollen dort punkten, wo es auf Geschwindigkeit und Effizienz ankommt, etwa bei Coding-Assistenten oder automatisierten Teilaufgaben.
GPT-5.4 mini bringt gegenüber dem Vorgänger GPT-5 mini laut OpenAI deutliche Verbesserungen beim Programmieren, bei der Verarbeitung von Bildern und beim Einsatz von Werkzeugen. Dabei läuft das Modell mehr als doppelt so schnell. In einigen Benchmarks kommt es sogar nah an das größere GPT-5.4 heran, etwa bei SWE-Bench Pro mit 54,4 Prozent gegenüber 57,7 Prozent oder bei OSWorld-Verified mit 72,1 Prozent gegenüber 75 Prozent.
GPT-5.4 nano ist die kleinste und günstigste Variante der GPT-5.4-Familie. OpenAI empfiehlt das Modell für Aufgaben wie Klassifizierung, Datenextraktion oder einfachere Programmieraufgaben, bei denen Geschwindigkeit und Kosten im Vordergrund stehen. Auch hier gibt es Fortschritte gegenüber GPT-5 nano, wobei die Leistung naturgemäß unter der von GPT-5.4 mini liegt.
Die neuen Modelle zielen auf Anwendungsfälle, bei denen Latenz die Nutzererfahrung direkt beeinflusst. Das können Coding-Tools sein, die sich flüssig anfühlen sollen, oder Systeme, die Screenshots auswerten und interpretieren müssen. In solchen Szenarien ist das beste Modell nicht immer das größte, sondern das, welches schnell antwortet und dabei trotzdem komplexe Aufgaben bewältigt.
Beim Programmieren zeigen GPT-5.4 mini und nano ihre Stärken besonders dort, wo schnelle Iterationen gefragt sind. Die Modelle eignen sich für gezielte Code-Änderungen, Navigation in Codebasen oder Debugging-Schleifen mit niedriger Latenz. In Benchmarks übertrifft GPT-5.4 mini das Vorgängermodell bei ähnlicher Geschwindigkeit und nähert sich den Erfolgsraten von GPT-5.4 an, während es deutlich schneller arbeitet.
GPT-5.4 mini ist ab sofort über die API, Codex und ChatGPT verfügbar. In der API unterstützt das Modell Text- und Bildeingaben, Werkzeugnutzung, Funktionsaufrufe, Websuche, Dateisuche, Computernutzung und Skills. Das Kontextfenster umfasst 400.000 Token. Die Ankündigung ist entsprechend lang und kann bei Interesse hier eingesehen werden.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

1 month ago
8


