Smartphone-Apps für DeepSeek und ChatGPT: Wettbewerb der KIs
Foto: Andy Wong / picture alliance / APDieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.
Das Unternehmen DeepSeek bestimmt seit einigen Tagen die Schlagzeilen in der Techbranche. Aber was genau macht das chinesische Unternehmen für künstliche Intelligenz eigentlich – und wie gut sind die KI-Modelle der Firma? Ein Überblick.
Was ist DeepSeek?
DeepSeek ist ein chinesisches KI-Start-up, das 2023 vom Hedgefondsmanager Liang Wenfeng gegründet wurde. Es hat sich auf die Entwicklung fortschrittlicher Sprachmodelle und künstlicher Intelligenz spezialisiert. DeepSeek setzt dabei auf Open-Source-Modelle, bei denen der Quellcode öffentlich einsehbar ist und von anderen für eigene Anwendungen benutzt werden kann. Die persönlichen Daten der Nutzerinnen und Nutzer werden nach eigenen Angaben auf Servern in China gespeichert.
Am 20. Januar hat die Firma »DeepSeek R1« vorgestellt, einen KI-basierten Chatbot. In den USA steht die App von DeepSeek auf Platz eins der Liste der aktuell am meisten heruntergeladenen iPhone-Apps, vor ChatGPT. Auch im deutschen App Store trendet DeepSeek unter den am häufigsten heruntergeladenen Apps. Nutzerinnen und Nutzer können mit der KI chatten, Dateien hochladen oder sie für Web-Recherchen verwenden.
Was kann »DeepSeek R1«?
R1 folgt einem neueren Ansatz bei KI-Modellen, bei dem die Aufgaben in Einzelschritte heruntergebrochen werden und so Gedankenketten entstehen. Die KI lernt so gewissermaßen das Nachdenken. »Reasoning« nennt sich der Ansatz, den auch das US-Unternehmen OpenAI auf ähnliche Weise bei einem im Dezember vorgestellten Modell verfolgt. DeepSeek soll in Bereichen wie Mathematik oder Physik anderen Chatbots wie ChatGPT überlegen sein. Bei der Benutzung unterscheidet sich die DeepSeek-KI von anderen Chatbots dadurch, dass sie ihre Argumente artikuliert, bevor sie eine Antwort auf eine Anfrage liefert.
Während etwa der US-Investor Marc Andreessen das neue R1-Modell einen »erstaunlichen und beeindruckenden Durchbruch« nannte, weisen mehrere Techexperten darauf hin, dass die Fähigkeiten von DeepSeek in den Schlagzeilen der vergangenen Tage womöglich überbetont würden. Der Analyst Ben Thompson etwa bezeichnete die Diagnose, dass R1 besser als Modelle des bisherigen Marktführers OpenAI sei, als übertrieben. Gleichzeitig stimmte er zu, dass das Modell durchaus wettbewerbsfähig sei.
Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von X.com, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können Ihre Zustimmung jederzeit wieder zurücknehmen.
{$dispatch('toggle')}, 250);">
Externen Inhalt anzeigen
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
DeepSeek hat seine Modelle offenbar primär mit englischen und chinesischen Textdokumenten trainiert, weshalb Prompts in diesen Sprachen bislang am besten zu funktionieren scheinen. Gibt man Prompts in anderen Sprachen ein, kann es noch passieren, dass das Modell dennoch auf Englisch antwortet, heißt es im Dokumentationspapier der Entwickler.
Die Entwickler von DeepSeek behaupten, dass der Chatbot seine Antworten strenger filtere und auf potenzielle Fehleingaben hinweise. Zudem verweist DeepSeek auf mögliche Unsicherheiten bei Quellen und verweigert auch Antworten, sollten Informationen nicht eindeutig sein. Bisher ist allerdings nichts konkret darüber bekannt, dass das Unternehmen die Sicherheit bei der Produktentwicklung besonders im Blick hätte. Während andere Firmen wie OpenAI eigene Abteilungen beschäftigen, die Sicherheitsrisiken wie etwa Fehlinformationen bei der KI-Entwicklung mindern sollen, ist nicht bekannt, dass DeepSeek überhaupt einen Angestellten in diesem Bereich hätte.
Das Unternehmen nannte zwar keine konkreten Ausgaben für das Training und die Entwicklung der eigenen Modelle. Angeblich benötigte man aber deutlich weniger Rechenleistung für das Training von KI-Modellen und damit auch weniger hochspezialisierte Chips (eine Analyse dazu lesen Sie hier ). Vor diesem Hintergrund sackte der Wert von US-Techunternehmen wie dem Chiphersteller Nvidia an den Börsen am Montag ab.
DeepSeek behauptet der »New York Times « zufolge, lediglich rund 2000 Nvidia-Chips für die Entwicklung benötigt zu haben. Andere Unternehmen hätten in der Vergangenheit oft Supercomputer mit bis zu 16.000 solcher Chips gebraucht, um die KI-Modelle hinter ihren Chatbots zu trainieren, heißt es in dem Bericht. Allerdings setzten die Modelle von DeepSeek laut Beobachtern auch auf geschickte Weise auf inzwischen offen verfügbare KI-Entwicklungen auf und nutzten so die Vorarbeit anderer Anbieter. Experten gehen schon länger davon aus, dass die Anzahl der benötigten Chips und die Kosten bei der KI-Entwicklung deutlich sinken werden, gleichwohl habe DeepSeek auf geschickte Weise mit seinen beschränkten Mitteln ein erstaunlich gutes eigenes Modell entwickelt, so das Credo von Beobachtern.
Wie funktioniert die DeepSeek-KI?
Wie ChatGPT von OpenAI, Googles Gemini und Metas Llama beruht auch DeepSeeks R1 auf einem Large Language Model (LLM). Es kann anhand einer großen Menge von Dokumenten, mit denen es trainiert wurde, Texteingaben verstehen und interpretieren. Für seine Antwort berechnet das Modell dann die Wahrscheinlichkeit für Wörter und deren Reihenfolge, die eine möglichst sinnvolle Antwort ergeben.
DeepSeeks R1 gehört zu den modernen »Reasoning Modellen«. Das heißt, es ist in der Lage, sein »Nachdenken« zu beschreiben und sorgt damit für bessere Nachvollziehbarkeit.
Vollkommen unklar ist dabei, welche Daten das Unternehmen verwendet hat, um seine KI zu trainieren – und wo diese Daten hergekommen sind. DeepSeek gibt nur preis, dass sein LLM von Grund auf neu entwickelt wurde. Die Grundlage dazu soll ein Datensatz aus »zwei Billionen Token auf Englisch und Chinesisch« gewesen sein.
Spannend für Entwickler: DeepSeek hat den Code für sein R1-Modell sowie sieben weitere Modelle öffentlich auf der Plattform Github zur Verfügung gestellt. OpenAI und andere Unternehmen wie Google oder Anthropic halten die Funktionsweisen ihrer Modelle dagegen streng geheim.
Was kostet es, DeepSeek zu benutzen?
Die einfache Nutzung von DeepSeek ist für jeden Nutzer nach Anmeldung kostenlos möglich. Bezahlte Abomodelle, wie sie zum Beispiel OpenAI anbietet, gibt es bei DeepSeek bislang nicht.
Wer DeepSeeks Modelle professionell und im größeren Stil nutzen will, zahlt pro Input- und Outputtoken, also für die Anzahl der eingegebenen und ausgegebenen Wörter, Zahlen und Satzzeichen. Das leistungsstärkere DeepSeek-Modell kostet umgerechnet 53 Cent pro eine Million Inputtokens und 2,10 Euro pro eine Million Outputtokens. Zum Vergleich: Das vergleichbare o1-Modell von OpenAI ist etwa 27-mal so teuer.
Wird DeepSeek zensiert?
Zahlreichen Nutzerinnen und Nutzern fiel in den vergangenen Tagen auf, dass DeepSeeks KI bei für die chinesische Führung kritischen Themen auffallende Lücken offenbart: Fragt man den Chatbot etwa, was 1989 auf dem Tiananmen-Platz in Peking geschah (Studierendenproteste wurden gewaltsam niedergeschlagen), dann schlägt die KI vor, doch lieber über Mathematik zu reden, wie ein SPIEGEL-Test der KI zeigt.
Die gleiche Antwort gibt es bei der Nachfrage, was derzeit in der chinesischen Region Xinjiang passiert, wo Angehörige der muslimischen Uiguren nachgewiesenermaßen in Arbeits- und Umerziehungslagern festgehalten werden: »Tut mir leid, ich bin noch nicht sicher, wie ich diese Art von Frage angehen soll. Lass uns stattdessen über Mathematik, Codierung und Logikprobleme chatten«, heißt es dann.
Auch will das Modell offenbar nichts über Pu den Bären sagen, der in den chinesischen sozialen Medien oft mit Staatsoberhaupt Xi Jinping assoziiert wird. Andere KI-Modelle sind bei diesen Themen deutlich auskunftsfreudiger und geben korrekte Antworten.

