05. Dezember 2025 Marcel Kunzmann
DeepSeek liefert zum Jahresende nochmal zwei neue Modelle
(Bild: Furqan Falahi/Shutterstock.com)
DeepSeek stellt zwei neue Open-Source-Modelle vor, die trotz US-Beschränkungen mit westlicher Konkurrenz mithalten. Was können die neuen Versionen wirklich?
Anfang des Jahres sorgte das chinesische KI-Startup DeepSeek für Furore. Mit einem leistungsfähigen, aber sparsamen Open-Source-Modell forderte das Unternehmen aus den chinesischen Hangzhou die Tech-Giganten heraus. Telepolis berichtete damals als eines der ersten Magazine im deutschsprachigen Raum über den "Sputnik-Moment" für die KI-Branche.
OpenAI, Claude, Google und Co waren aufgeschreckt. Entsprechend ging es dieses Jahr hoch her. Zahlreiche neue Modelle sind erschienen und haben sich gegenseitig von den Rankings verdrängt. Zuletzt hat vor allem der Google-Spätzünder Gemini von sich reden gemacht.
Zum Ende des Jahres liefert jetzt auch DeepSeek noch einmal nach. Das chinesische Unternehmen hat zwei neue Open-Source-Modelle veröffentlicht, die nach eigenen Angaben mit den fortschrittlichsten Systemen von OpenAI und Google konkurrieren können. DeepSeek-V3.2 sowie die leistungsstärkere Variante DeepSeek-V3.2-Speciale wurden am Montag veröffentlicht.
Goldmedaillen bei internationalen Wettbewerben
Laut den Entwicklern erreicht DeepSeek-V3.2-Speciale bei Reasoning-Aufgaben die Leistung von Googles vor zwei Wochen veröffentlichtem Gemini 3 Pro-Modell. Das Grundmodell V3.2 soll mit OpenAIs im August eingeführtem GPT-5 gleichziehen, wie DeepSeek mitteilte. Besonders bemerkenswert ist, dass das chinesische Unternehmen diese Leistung trotz eingeschränktem Zugang zu fortschrittlichen Halbleiter-Chips erreicht haben will.
Aktueller Benchmarkvergleich der Entwickler
(Bild: DeepSeek)DeepSeek-V3.2-Speciale erzielte nach Unternehmensangaben Goldmedaillen-Leistungen bei vier internationalen Elitewettbewerben: der Internationalen Mathematik-Olympiade 2025, der Internationalen Informatik-Olympiade, den ICPC-Weltmeisterschaften und der Chinesischen Mathematik-Olympiade. Eine solche Leistung bei der Internationalen Mathematik-Olympiade hatten bisher nur interne, nicht öffentlich zugängliche Modelle von OpenAI und Google DeepMind erreicht. Bei den bekannten Rankings LMArena und Humanity's Last Exam tauchen die neuen Modelle indes noch nicht auf.
Das Unternehmen hat das V3.2-Modell auf der Entwicklerplattform Hugging Face als Open-Source verfügbar gemacht. Die leistungsstärkere Variante V3.2-Speciale ist jedoch aufgrund ihres "höheren Token-Verbrauchs" nur über eine Programmierschnittstelle zugänglich, wie DeepSeek erklärte.
Architektonische Innovationen trotz Chip-Beschränkungen
DeepSeek erreicht diese Leistung durch architektonische Innovationen wie den DeepSeek Sparse Attention (DSA)-Mechanismus. Die Technologie verliert im Unterschied zu früheren Ansätzen auch bei langen Eingabesequenzen nicht den Überblick über den Kontext. Ein spezieller Indexer konzentriert sich dabei nur auf die wichtigsten Bestandteile des Kontexts und ignoriert zunächst den Rest. Dadurch halbieren sich die Inferenz-Kosten gegenüber Vorgängermodellen, ohne die Leistung zu beeinträchtigen.
Laut dem technischen Bericht des Unternehmens wurde diese Leistung mit "weniger gesamten Trainings-FLOPs" als bei US-Konkurrenten erreicht. FLOPs (Floating Point Operations per Second) gelten als Standardmaß für die Rechenleistung beim Training von KI-Modellen.
Internationale Aufmerksamkeit in der Forschungsgemeinde
Die Ankündigung hat in der KI-Forschungsgemeinschaft für erhebliche Diskussionen gesorgt, insbesondere da sie zeitlich mit der prestigeträchtigen jährlichen Conference on Neural Information Processing Systems (NeurIPS) zusammenfiel. Susan Zhang, leitende Forschungsingenieurin bei Google DeepMind, lobte DeepSeek für den detaillierten technischen Bericht zu den neuen Modellen und hob die Bemühungen des Unternehmens bei der Stabilisierung der Modelle nach dem Training hervor.
Der Zeitpunkt der Veröffentlichung vor der NeurIPS-Konferenz erinnert an OpenAIs Einführung von ChatGPT Ende November 2022, die ebenfalls mit der damaligen Konferenz in New Orleans zusammenfiel. Die Konferenz findet dieses Jahr erstmals gleichzeitig an zwei Orten statt – San Diego und Mexiko-Stadt. Aufgrund von Bedenken bezüglich der Visa-Beschaffung für internationale Forscher in den USA haben sich viele chinesische Teilnehmer für den Veranstaltungsort in Mexiko-Stadt entschieden, berichtet die South China Morning Post.
DeepSeek räumte ein, dass V3.2 bei Token-Effizienz und Weltwissen noch hinter führenden US-Modellen wie Gemini 3 Pro zurückbleibt. Das Unternehmen erklärte jedoch, diese Lücken durch eine Ausweitung der für das Vortraining verwendeten Rechenleistung schließen zu wollen.



