Deepseeks neues Open-Source-Sprachmodell konkurriert mit GPT-4.5

9 months ago 9

Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.

Deepseek aus China hat eine neue Version von DeepSeek-V3 unter MIT-Lizenz veröffentlicht. DeepSeek-V3-0324 zeigt deutliche Verbesserungen bei mathematischen Tests wie MMLU-Pro, vGPQA und AIME und übertrifft in einigen dieser Benchmarks die derzeit stärksten reinen LLMs wie OpenAIs GPT-4.5 oder Anthropics Claude 3.7 Sonnet. Auch die Webentwicklung und die Sprachfähigkeiten für Chinesisch wurden verbessert. Im unabhängigen Polyglot-Benchmark erreicht das Modell 55 Prozent und liegt damit auf Platz 2 der Modelle ohne spezielle "Thinking"-Fähigkeiten. Die Vorgängerversion diente als Grundlage für Deepseeks R1 Reasoning-Modell, das als erstes Open-Source-Modell mit OpenAI's o1 konkurrieren konnte und in den Tagen nach seiner Veröffentlichung den US-Aktienmarkt in Aufruhr versetzte. Die neue Version von V3 könnte als Basis für R2 dienen und damit einen ersten Ausblick auf die zu erwartenden Leistungssprünge geben.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:

Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.

Read Entire Article