DeepSeeks kostenlose Modelle wirbeln den KI-Wettlauf auf

K.I.
DeepSeek’s Free Models Shake Up AI Race
Das chinesische Startup DeepSeek hat zwei neue offene Modelle veröffentlicht, die Logikfähigkeiten auf GPT-5-Niveau und Long-Context-Kapazitäten versprechen, während sie die Rechenkosten drastisch senken – ein Schritt, der etablierte Geschäftsmodelle infrage stellt und neue regulatorische Bedenken weckt.

Was geschah

In dieser Woche veröffentlichte DeepSeek, das in Hangzhou ansässige KI-Startup, das Anfang 2025 zu einer viralen Sensation wurde, zwei neue Modelle – DeepSeek-V3.2 und eine Variante für komplexes Reasoning namens DeepSeek-V3.2-Speciale – und stellte die Gewichte und den Code unter einer permissiven Open-Source-Lizenz weitläufig zur Verfügung. Das Unternehmen positioniert das Duo als Modelle, die für lange Dokumente und mehrstufige Problemlösungen optimiert sind; in öffentlichen Benchmarks und Wettbewerbssimulationen beansprucht es eine Leistung, die mit den neuesten proprietären Frontier-Systemen vergleichbar ist.

Dies sind keine kleinen Updates. DeepSeek beschreibt sie als einen Quantensprung bei der Effizienz von langem Kontext und der agentischen Werkzeugnutzung, und das Unternehmen hat Model Cards, einen technischen Bericht und herunterladbare Gewichte für Entwickler und Forscher zum Experimentieren veröffentlicht.

Wie die Modelle funktionieren – und warum sie im Betrieb weniger kosten

Die wichtigste Innovation, die DeepSeek hervorhebt, ist eine Form von Sparse Attention, die sie DeepSeek Sparse Attention (DSA) nennen. Attention-Mechanismen sind der Teil von großen Sprachmodellen, der sie abwägen lässt, welche Wörter und Passagen für eine bestimmte Antwort wichtig sind. Traditionelle Attention skaliert schlecht mit der Eingabelänge – die Rechenkosten steigen etwa quadratisch mit der Anzahl der Token –, sodass die Verarbeitung von Tausenden oder Zehntausenden von Token unerschwinglich teuer wird.

Benchmarks, Wettbewerbe und reale Aufgaben

DeepSeek hat eine Mischung aus Standard-Benchmarks und dramatischeren Bewertungen im Wettbewerbsstil veröffentlicht. Die Speciale-Variante wird als Deep-Reasoning-Engine präsentiert, die durch Reinforcement Learning und spezialisierte Trainingsregime optimiert wurde; laut den vom Unternehmen gemeldeten Zahlen erreicht sie Goldmedaillen-Niveau bei mehreren Elite-Programmier- und Mathematikwettbewerben und erzielt wettbewerbsfähige Ergebnisse bei Coding- und Reasoning-Benchmarks, die typischerweise zum Vergleich von Frontier-Modellen verwendet werden.

Diese Wettbewerbsergebnisse sind auf dem Papier beeindruckend: DeepSeeks Materialien berichten von hohen Punktzahlen bei Aufgaben der Mathematik- und Informatikolympiaden unter testähnlichen Bedingungen, und es zeigt eine starke Leistung bei Benchmarks für Coding-Workflows. Sollten die Zahlen einer unabhängigen Überprüfung standhalten, deutet dies darauf hin, dass ein kleinerer Satz architektonischer Änderungen und gezieltes Training Reasoning-Gewinne liefern können, ohne die Rechenleistung einfach immer weiter zu skalieren.

Agentisches "Denken mit Tools"

Ein zweiter praktischer Fortschritt, den DeepSeek betont, ist die Beibehaltung interner logischer Schlussfolgerungen, wenn das Modell mit externen Tools interagiert – Suche, Code-Ausführung, Dateibearbeitung und so weiter. Frühere Modelle neigen dazu, ihre interne Gedankenkette (Chain of Thought) jedes Mal zu verlieren, wenn sie eine externe API aufrufen; DeepSeek kombiniert dies mit einer Trainings-Pipeline aus synthetischen mehrstufigen Aufgaben, sodass das Modell lernt, Teilpläne aufrechtzuerhalten und fortzuführen, während es Tools abfragt. Das macht mehrstufige Workflows – das Debugging von komplexem Code, die Logistikplanung mit sich ändernden Randbedingungen oder die Recherche über viele Dokumente hinweg – in der Praxis weitaus reibungsloser.

Das von DeepSeek beschriebene Trainingsprogramm umfasst Tausende von synthetischen Umgebungen und Aufgabenvariationen, die darauf abzielen, dem Modell beizubringen, wie es Überlegungen und Handlungen im Tandem durchführt. Für Entwickler, die autonome Agenten oder Workflow-Assistenten erstellen, ist diese Fähigkeit ebenso wichtig wie reine Benchmark-Ergebnisse: Sie verringert die technische Reibung beim Zusammenfügen von Tools und Modellen.

Im Gegensatz zu den meisten Unternehmen, die ihre größten Modelle hinter kostenpflichtigen APIs halten, hat DeepSeek Modellgewichte und Code unter einer MIT-ähnlichen Lizenz veröffentlicht und Integrationsbeispiele für gängige Laufzeiten publiziert. Dieser Schritt senkt die Hürden für den Einsatz – Unternehmen können die Modelle On-Premises betreiben, Forscher können Logits und Fehlermodi untersuchen, und Startups können Agenten ohne die gleichen Bedenken hinsichtlich eines Vendor Lock-ins entwickeln.

Die Kombination aus offenen Gewichten und Effizienzverbesserungen ist kommerziell von Bedeutung: Niedrigere Inferenzkosten und Self-Hosting-Optionen verändern sowohl die Stückkostenrechnung als auch die Risikokalkulation für Kunden, die eine intensive Nutzung von Reasoning mit langem Kontext benötigen (Legal Discovery, Software-Ingest, Analyse wissenschaftlicher Literatur). Gleichzeitig beschleunigt das Open-Sourcing von Frontier-Modellen das Experimentieren auf eine Weise, die proprietäre Anbieter nicht einfach kontrollieren können.

Regulatorische Spannungen und geopolitische Reibungen

All diese technischen und kommerziellen Verschiebungen überschneiden sich mit der Politik. Mehrere Regulierungsbehörden und Regierungen haben bereits DeepSeeks Datenhandhabung und nationales Sicherheitsprofil kritisiert. Europäische Behörden haben Untersuchungen eingeleitet und in einigen Fällen vorübergehende Sperren oder App-Entfernungen angeordnet, und eine Reihe von Regierungen haben zur Vorsicht geraten oder die Nutzung auf offiziellen Geräten eingeschränkt. Diese Maßnahmen erschweren die Einführung in regulierten Sektoren und unterstreichen, dass die offene Verfügbarkeit von Gewichten die Bedenken hinsichtlich des Datenflusses oder des Zugriffs durch ausländische Regierungen nicht ausräumt.

Unternehmen, die den Einsatz dieser Modelle in Erwägung ziehen, müssen über Datenresidenz, die Einhaltung lokaler Datenschutzregeln und die Herkunft der Lieferkette für Trainings- und Inferenz-Hardware nachdenken – Themen, die heute im Mittelpunkt von Beschaffung und Risikobewertungen stehen und keine technischen Nebensächlichkeiten mehr sind.

Was dies für die KI-Landschaft bedeutet

Es gibt drei wesentliche Erkenntnisse. Erstens kann architektonische Effizienz (nicht nur Brute-Force-Skalierung) die Grenze des Machbaren verschieben, insbesondere bei Aufgaben mit langem Kontext und agentischen Aufgaben. Zweitens zwingt die offene Veröffentlichung von leistungsfähigen Modellen die etablierten Anbieter dazu, ihre Preisgestaltung und Produktstrategie zu überdenken: Regierungen, Unternehmen und Entwickler haben nun eine Alternative, die einfacher selbst zu hosten ist. Drittens bleiben Politik und Vertrauen entscheidende Faktoren – technischer Fortschritt allein wird nicht darüber entscheiden, wer gewinnt oder wie weitverbreitet diese Systeme eingesetzt werden.

Insbesondere für europäische und US-amerikanische Organisationen ist die Herausforderung praktischer Natur: Abwägung der betrieblichen und Kostenvorteile eines frei verfügbaren, effizienten Modells gegen ungeklärte Fragen zu Data Governance, Audits durch Dritte und regulatorischen Risiken. Die nächsten Monate werden ein Live-Experiment sein, wie sich Markt, Regulierungsbehörden und Anbieter anpassen.

Worauf ich achten werde

  • Unabhängige Audits und Replikation von DeepSeeks Benchmark-Behauptungen.
  • Enterprise-Verträge (Term Sheets), die zeigen, wer sich für das Self-Hosting dieser Gewichte entscheidet und unter welchen Sicherheitsvorkehrungen.
  • Regulatorische Entscheidungen, die klären, wie Datenschutzregeln auf im Ausland gehostete Modelldienste und offene Gewichte anzuwenden sind.
  • Wie die großen Cloud- und Hardware-Anbieter reagieren – sowohl technisch (Runtime-Unterstützung, optimierte Kernel) als auch kommerziell (Preisgestaltung, Partnerschaften).

DeepSeeks Veröffentlichung ist eine Erinnerung daran, dass es beim KI-Wettlauf nun um mehrere Hebel geht – Architektur, Daten, Werkzeuge, Vertrieb und Regulierung – nicht nur um reine Rechenleistung. Für Ingenieure, Produktverantwortliche und politische Entscheidungsträger ist diese Komplexität ein Merkmal: Sie schafft sowohl Chancen als auch eine Menge schwieriger Fragen, die beantwortet werden müssen, bevor diese Fähigkeiten zu einer grundlegenden Infrastruktur werden.

— Mattias Risberg, Dark Matter

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Welche Modelle hat DeepSeek veröffentlicht und wofür wurden sie entwickelt?
A DeepSeek hat zwei offene Modelle veröffentlicht: DeepSeek-V3.2 und eine Variante mit hohen Argumentationsfähigkeiten namens DeepSeek-V3.2-Speciale. Die Gewichte und der Code sind unter einer MIT-ähnlichen Lizenz weithin verfügbar, wobei das Paar für lange Dokumente und mehrstufige Problemlösungen konzipiert ist. In öffentlichen Benchmarks und Wettbewerbssimulationen behauptet DeepSeek, eine Leistung zu erbringen, die mit den neuesten proprietären Frontier-Systemen vergleichbar ist.
Q Was ist DeepSeek Sparse Attention und warum ist es wichtig?
A Die wichtigste Innovation ist DeepSeek Sparse Attention (DSA), eine Form der Sparse Attention, die die Effizienz bei langen Kontexten verbessert, indem sie die Rechenkosten gegenüber der quadratischen Token-Skalierung herkömmlicher Attention-Mechanismen reduziert. Nach Angaben des Unternehmens ermöglicht sie die Verarbeitung von Tausenden von Token und unterstützt die Verwendung von agentischen Werkzeugen, wobei die interne Logik über externe Werkzeugaufrufe hinweg beibehalten wird.
Q Wie wirkt sich die offene Lizenzierung auf die Bereitstellung und das Experimentieren aus?
A Durch die Veröffentlichung von Modellgewichten und Code unter einer MIT-ähnlichen Lizenz und die Bereitstellung von Integrationsbeispielen senkt DeepSeek die Hürden für die Implementierung: Unternehmen können das Hosting lokal (on-premises) selbst übernehmen, Forscher können Logits und Fehlermodi untersuchen, und Start-ups können Agenten ohne Anbieterbindung (Vendor Lock-in) entwickeln, was potenziell die Inferenzkosten senkt und die Werkzeuge für Workflows mit langen Kontexten erweitert.
Q Welche regulatorischen und geopolitischen Bedenken sind mit diesen Modellen verbunden?
A Regulierungsbehörden haben den Umgang mit Daten und das nationale Sicherheitsprofil von DeepSeek kritisiert, wobei europäische Behörden Untersuchungen durchführen und teilweise Apps blockieren oder entfernen. Regierungen raten zur Vorsicht, und Entscheidungen über die Implementierung müssen den Datenstandort, die Einhaltung lokaler Datenschutzbestimmungen sowie die Herkunft der Lieferkette für Trainings- und Inferenzhardware berücksichtigen, was sich auf die Beschaffung und Risikobewertung in regulierten Sektoren auswirkt.
Q Was sind die weiterreichenden Auswirkungen auf die KI-Landschaft?
A Es ergeben sich drei wesentliche Erkenntnisse: Architektonische Effizienz kann die Fähigkeiten von Frontier-Modellen für Aufgaben mit langen Kontexten vorantreiben; offene Veröffentlichungen zwingen etablierte Anbieter dazu, Preisgestaltung und Self-Hosting-Optionen zu überdenken; und Politik sowie Vertrauen bleiben entscheidende Faktoren, wobei praktische Erwägungen zur Data Governance, Audits durch Dritte und regulatorische Risiken die Akzeptanz in Europa und den Vereinigten Staaten prägen.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!