Chinesische Open-Source-Modelle setzen neue Standards in der KI

1 month ago 3

17. November 2025 Matthias Lindner

Grafik zur KI mit menschlicher Hand auf der einen Seite, Roboterhand auf der anderen.

(Bild: Summit Art Creations / Shutterstock.com)

Chinesische Entwickler dominieren mit Modellen wie DeepSeek und Qwen die KI-Landschaft. Westliche Firmen setzen bereits auf die Technik.

Chinesische Entwickler haben in den vergangenen Monaten mehr öffentliche Sprachmodelle veröffentlicht als alle anderen Akteure zusammen. Namen wie DeepSeek, Qwen, Kimi und MiniMax tauchen mittlerweile regelmäßig in den Download-Charts und Benchmark-Ranglisten auf.

Diese Modelle sind nicht nur kostenlos verfügbar, sondern konkurrieren auch qualitativ mit den besten proprietären Systemen westlicher Anbieter, heißt es in einem Artikel auf GenInnov, einer Branchen- und Investmentplattform für DeepTech.

Westliche Unternehmen haben die Zeichen der Zeit erkannt. Airbnb nutzt laut Medienberichten Alibabas Qwen für seine Kundendienst-Bots, Cursor setzt chinesische Modelle für Code-Generierungsagenten ein, und Cognition hat sein System SWE-1.5 auf einem chinesischen Basismodell aufgebaut.

Die Gründe für diese Entscheidungen sind laut GenInnov pragmatisch: Die Modelle sind schnell, leistungsstark und deutlich günstiger als westliche Alternativen.

Effizienz durch innovative Architektur

Die technologische Grundlage für diese Entwicklung ist die konsequente Weiterentwicklung der sogenannten Mixture-of-Experts-Architektur, kurz MoE. Statt ein einzelnes großes Modell für jede Anfrage zu nutzen, aktiviert MoE nur jene Teilmodelle (sogenannte "Experten"), die für eine bestimmte Aufgabe benötigt werden. Der Rest bleibt inaktiv, was Kosten senkt, ohne die Gesamtleistung zu verringern.

Chinesische Labore haben MoE auf unterschiedliche Weise optimiert. DeepSeek gruppiert seine Experten hierarchisch und leitet Teilergebnisse an übergeordnete Ebenen weiter. Qwen nutzt Sparse Gating, damit mehrere kleine Experten Rechenressourcen gemeinsam nutzen können. Kimi kombiniert modulares Routing mit Long-Context Attention und ruft für jede Stufe einer Argumentationskette verschiedene Experten hinzu.

Diese Designentscheidungen führen laut Bericht zu messbaren Vorteilen: schnellere Modelle, geringere Kosten und längere Kontextfenster.

Hinzu kommt die Low-Rank Adaptation, kurz LoRA. Diese Technik ermöglicht es, Modelle in wenigen Stunden auf einem Laptop zu trainieren, statt Wochen auf teuren Servern zu verbringen.

Die Updates können zudem gestapelt werden, sodass sich Verbesserungen über die Zeit akkumulieren, ohne dass ein komplettes Neutraining nötig ist.

Neue Geschäftsmodelle durch niedrige Kosten

Die Trainingskosten für chinesische Modelle liegen deutlich unter denen westlicher Anbieter. Für das Kimi-Modell werden weniger als sechs Millionen Dollar angegeben. Diese niedrigen Kosten ermöglichen API-Preise, die zehn- bis fünfzigmal günstiger sind als bei westlichen Äquivalenten.

Das Geschäftsmodell lautet: kostenlose Erkenntnis, bezahlte Bequemlichkeit. Das Modell selbst ist frei verfügbar, aber für den bequemen API-Zugriff oder das Hosting wird bezahlt.

Da die Modelle zur Commodity werden, verlagert sich der Wettbewerbsvorteil. Es geht nicht mehr darum, wer das größte Modell hat, sondern wer die besten Produkte und Anwendungen darauf aufbaut.

Ein durchgesickertes Google-Memo aus dem Jahr 2023 hatte diese Entwicklung bereits vorhergesagt. Darin hieß es, dass Open-Source-KI proprietäre Modelle überholen werde.

Praktische Überlegungen für den Einsatz

Für Unternehmen, die über den Einsatz chinesischer Open-Source-Modelle nachdenken, stellen sich mehrere Fragen. Sicherheitsbedenken bezüglich der Datenübermittlung nach China sind vorhanden, können aber durch Self-Hosting oder die Nutzung alternativer Hoster wie Perplexity oder LM Studio umgangen werden, da die Modelle Open Source sind.

Es gibt Vorwürfe, dass chinesische Modelle durch sogenannte Distillation trainiert wurden, also durch das Abschöpfen von Wissen aus proprietären Modellen wie denen von OpenAI. Beweise dafür stehen jedoch aus. Die konkreten rechtlichen Risiken für Unternehmen, die solche Modelle einsetzen, sind bislang nicht geklärt.

Trotz dieser offenen Fragen setzen immer mehr Unternehmen auf chinesische Modelle. Die Effizienzvorteile scheinen die Bedenken zu überwiegen. Das Tempo der Innovation ist hoch, und die Qualität der Modelle nähert sich weiter an die besten westlichen Systeme an. Die nächsten Monate werden zeigen, ob sich dieser Trend fortsetzt und welche Rolle Open Source in der Zukunft der künstlichen Intelligenz spielen wird.

Read Entire Article