
Mit den Modellen gpt-oss-120B und gpt-oss-20B hat OpenAI heute neue Open-Weight-Modelle veröffentlicht. Open Weight meint teiloffene Sprachmodelle (LLM), die mit minimalen (oder keinen) Restriktionen weiterentwickelt werden können. Bei den vorgestellten Open Models handelt es sich um leistungsstarke Reasoning-Modelle. Das Modell gpt-oss-120B erreicht in Benchmarks die Leistung von OpenAIs Reasoning-Modell o4-mini, benötigt jedoch nur die Leistung einer 80-GB-GPU. Damit ist es beispielsweise auf einem gut bestückten Mac Studio (lokal) lauffähig. Das weniger leistungsfähige gpt-oss-20B liefert bereits auf 16-GB-Edge-Geräten Rasoning-Fähigkeiten.
Die neuen Modelle sind unter der Apache-2.0-Lizenz veröffentlicht, um die Einstiegshürden für Start-ups oder Organisationen in Schwellen- sowie Entwicklungsländern zu senken, eigene KI-Infrastruktur aufzubauen und diese sicher zu betreiben. In puncto (Cyber-) Sicherheit liefert OpenAI auch ein entsprechendes Sicherheitspapier und einen Evaluierungscode nebst Bewertungsrichtlinien für die Open-Weight-Modelle mit. Unterstützt werden Integrationen mit Hugging Face, vLLM, Ollama, llama.cpp sowie führenden GPU-/Beschleunigerplattformen.
Die neu vorgestellten Modelle stehen ab sofort, neben Entwicklungshandbüchern und Implementierungstools, bereit. Sie werden unter anderem auf Hugging Face und anderen Plattformen bereitgestellt.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

5 months ago
6


