Am 20. Januar 2025 veröffentlichte ein chinesisches KI-Labor ein neues Modell. Innerhalb von Tagen war die KI-Welt in Aufruhr, die Aktien amerikanischer KI-Unternehmen brachen ein, und in Tech-Kreisen war kaum ein anderes Thema. Was war passiert?
DeepSeek R1 hatte auf Standard-Benchmarks mit ChatGPT (GPT-4) und Claude gleichgezogen — für einen Bruchteil der Trainingskosten. Das traf eine Grundannahme der westlichen KI-Industrie direkt im Kern: dass Qualität proportional zu Investitionen ist, und dass chinesische Anbieter durch US-Exportkontrollen auf Chips deutlich im Nachteil sind.
Beide Annahmen stimmten an diesem Tag nicht mehr.
Was DeepSeek technisch besonders macht
DeepSeek wurde von einem chinesischen Quant-Hedgefonds namens High-Flyer gegründet, der seit Jahren in KI-Forschung investiert. Die Forschungsgruppe hat sich auf Trainingseffizienz spezialisiert — auf die Frage, wie man mehr Leistung aus weniger Rechenkapazität herausholt.
Das Ergebnis war ein Modell mit einer ungewöhnlichen Architektur: Mixture of Experts (MoE) kombiniert mit innovativen Trainingstechniken, die den Speicherbedarf stark reduzierten. Statt wie üblich tausende teure Nvidia H100-Chips zu benötigen, trainierte DeepSeek auf älteren, durch Exportbeschränkungen verfügbaren Hardware-Generationen.
Die gemeldeten Trainingskosten von unter 6 Millionen US-Dollar — verglichen mit Milliarden bei GPT-4 — wurden von einigen Experten skeptisch kommentiert (es ist wahrscheinlich, dass Vorarbeiten und Infrastrukturkosten nicht vollständig eingerechnet wurden). Aber selbst mit großzügigen Korrekturen war die Kosteneffizienz außergewöhnlich.
DeepSeek veröffentlichte die Gewichte als Open Source — man kann das Modell also herunterladen und selbst betreiben. Das ist ein wichtiger Punkt, auf den wir zurückkommen.
Warum das für die globale KI-Entwicklung relevant ist
Die USA hatten über Jahre versucht, den Vorsprung chinesischer KI-Entwicklung durch Exportkontrollen auf Hochleistungschips einzuschränken. DeepSeek zeigte, dass dieser Ansatz begrenzt greift, wenn Unternehmen an der Effizienz statt an der schieren Rechenleistung arbeiten.
Das hat industriepolitische Konsequenzen weit über China hinaus: Wenn hochwertige LLMs mit geringerem Ressourceneinsatz trainiert werden können, sinken die Barrieren für weitere Akteure weltweit — auch in Europa. Das ist für die Idee europäischer Sprachmodelle, wie sie etwa Aleph Alpha verfolgt, potenziell eine gute Nachricht.
Die Datenschutzfragen — ehrlich bewertet
Wer die deutsche oder europäische Version von deepseek.com nutzt, sendet seine Eingaben an Server in China. Das ist das zentrale Datenschutzproblem — und es ist real.
China hat kein Datenschutzrecht, das mit der DSGVO vergleichbar wäre. Das chinesische Cybersicherheitsgesetz und das Datensicherheitsgesetz verpflichten Unternehmen unter bestimmten Umständen zur Kooperation mit staatlichen Behörden. In welchem Umfang das in der Praxis für DeepSeeks Server gilt, ist von außen nicht überprüfbar.
Dazu kommen Hinweise aus Sicherheitsanalysen: Mehrere Forscher dokumentierten kurz nach dem Launch, dass die App auf einigen Plattformen Nutzerdaten an Dritte übertrug, darunter ByteDance-Infrastruktur. Ob das an mangelnder Sorgfalt oder an Absicht lag, ist unklar. Transparenz sieht anders aus.
Für europäische Unternehmen bedeutet das: Wer DeepSeek über die offizielle Webseite oder App nutzt und dabei Kundendaten, Personaldaten oder andere personenbezogene Informationen eingibt, verstößt wahrscheinlich gegen die DSGVO. Ein AVV mit einem chinesischen Anbieter, der chinesischem Recht unterliegt, erfüllt die DSGVO-Anforderungen nicht.
Das ist keine politische Aussage — das ist eine rechtliche.
Die Open-Source-Option ändert das Bild
Hier kommt der wichtige Unterschied: DeepSeek hat die Modellgewichte veröffentlicht.
Das bedeutet, du kannst DeepSeek-Modelle auf deiner eigenen Infrastruktur betreiben — in einem deutschen Rechenzentrum, auf einem eigenen Server, in einer europäischen Cloud. In diesem Szenario verlässt kein Datum deine Infrastruktur. Es gibt keine Verbindung zu chinesischen Servern. Die Datenschutzfragen stellen sich nicht.
Self-hosted DeepSeek ist technisch anspruchsvoller als die Nutzung einer API, aber für viele mittlere und größere Unternehmen ein praktikabler Weg. Anbieter wie Hetzner, IONOS oder OVH bieten die Rechenkapazität dafür. Tools wie Ollama vereinfachen das lokale Ausführen kleinerer Modellvarianten erheblich.
Für Entwickler, die mit Code-Assistenz arbeiten: DeepSeek-Coder gilt als eines der stärksten öffentlichen Modelle für Programmieraufgaben. Selbst gehostet, ohne Personenbezug im Prompt — ein legitimer und sinnvoller Einsatz. Einen strukturierten Blick auf KI im Entwickleralltag bietet unser Use Case KI-gestützter Entwicklungsassistent.
Wann DeepSeek sinnvoll ist — und wann nicht
Sinnvoll: Technische Aufgaben ohne Personenbezug, selbst gehostet auf europäischer Infrastruktur. Für Entwickler und Forscher, die das Modell lokal evaluieren wollen. Als Benchmark-Vergleich zum Verständnis des State of the Art.
Vorsicht: Nutzung über die offizielle Plattform (deepseek.com) mit irgendwelchen geschäftlichen oder personenbezogenen Daten. Enterprise-Einsatz über die Cloud-API ohne geklärte Datenschutzgrundlage. In regulierten Branchen (Gesundheit, Finanzen, Recht) generell ohne intensive Vorprüfung — in der Rechtsberatung etwa, wo KI für Vertragsanalyse eingesetzt wird, ist die Datenlokation ein zentrales Kriterium.
Finger weg: Wenn du keine Möglichkeit hast, die Datenflüsse zu kontrollieren, und trotzdem Kundendaten oder andere sensible Informationen verarbeiten willst.
Was der DeepSeek-Moment für die KI-Branche bedeutet
Die Branche hat nach dem Januar 2025-Schock begonnen, ihre Annahmen zu hinterfragen. Das Ergebnis war nicht, dass alle zu DeepSeek gewechselt sind — sondern dass alle angefangen haben, Effizienz ernstzunehmen.
OpenAI und Anthropic haben daraufhin eigene “thinking”-Modelle mit ähnlichen Ansätzen veröffentlicht. Die Trainingskosten für neue Modellgenerationen sind gesunken. Die Idee, dass nur milliardenschwere Investments zu frontier-Modellen führen, ist weniger selbstverständlich als zuvor.
Das ist eine positive Entwicklung. Mehr Akteure, niedrigere Einstiegsbarrieren, mehr Möglichkeiten auch für europäische Initiativen — das ist das eigentliche Erbe des DeepSeek-Moments. Mehr über den Stand der wichtigsten Modelle findest du im Vergleichsartikel Claude, ChatGPT, Gemini: Welches KI-Modell passt zu dir?.
Fazit ohne Schwarzweißdenken
DeepSeek ist ein beeindruckend effizientes Modell von einem ernstzunehmenden Forschungsteam. Die Datenschutzbedenken bei der Nutzung über chinesische Server sind real und nicht wegzureden.
Das bedeutet nicht, dass das Modell tabu ist. Es bedeutet, dass der Einsatz Sorgfalt erfordert — und dass Self-Hosting für viele Anwendungsfälle die richtige Antwort ist.
Wer KI-Tools unter Datenschutzgesichtspunkten bewertet, sollte DeepSeek nicht anders behandeln als andere Anbieter: Wo laufen die Server? Was passiert mit meinen Daten? Gibt es vertragliche Grundlagen?
Bei DeepSeek über die eigene gehostete Instanz: meistens ja. Bei deepseek.com mit Unternehmensdaten: meistens nein.
Wenn du regelmäßige Einschätzungen zu KI-Tools — ohne Hysterie und ohne Werbung — bekommen möchtest, findest du sie in unserem Newsletter.