DeepSeek startet V4-Preview mit 1M Kontext und schärferem Agent-Fokus
DeepSeek hat seine V4-Preview vorgestellt. Die neue Modellfamilie kombiniert 1 Million Token Kontext mit stärkerem Fokus auf Agenten-Workflows.
DeepSeek hat am 24. April seine V4-Preview freigeschaltet und gleichzeitig als Open Source angekündigt. Das wäre schon für sich genommen eine brauchbare Meldung. Interessant wird es aber an anderer Stelle: Die neue Familie setzt nicht nur auf mehr Kontext, sondern auf genau die Kombination, die für agentische Workflows gerade zählt — langes Gedächtnis, Tool-Aufrufe und ein Modellprofil, das ausdrücklich auf Coding- und Assistenzszenarien zielt.
Laut DeepSeek besteht die Preview aus zwei Varianten: DeepSeek-V4-Pro und DeepSeek-V4-Flash. Schon in der Release-Ankündigung schiebt das Unternehmen dabei ein Thema nach vorn, das für Agenten entscheidend ist: 1 Million Token Kontextlänge als praktischer Arbeitsraum für lange, werkzeuglastige Sitzungen. Für Teams, die mit mehrstufigen Agentenketten arbeiten, ist das relevanter als der übliche Benchmark-Lärm.
Worum es bei dieser Preview wirklich geht
Viele Modellankündigungen verkaufen ein größeres Kontextfenster wie ein isoliertes Prestige-Feature. Für normale Chat-Nutzung stimmt das oft sogar: Kaum jemand kippt freiwillig riesige Dokumente in einen Prompt. Bei Agenten sieht das anders aus. Dort sammelt sich Kontext schnell an — frühere Tool-Ergebnisse, Dateiauszüge, Zwischenstände, Log-Fragmente, Commit-Diffs oder Gesprächsverläufe. Wenn ein Modell mit solchen langen Arbeitskontexten stabil umgehen kann, sinkt der Druck, ständig aggressiv zu komprimieren oder wichtige Teile wegzuwerfen.
DeepSeek formuliert die Stoßrichtung recht offensiv. In der Release-Mitteilung heißt es, V4 sei der Einstieg in eine „cost-effective 1M context length“-Ära. Das ist mehr als Marketingschaum. Die Ansage zielt direkt auf einen Schmerzpunkt moderner Agentensysteme: Lange Kontexte sind nützlich, werden aber schnell teuer oder unhandlich. Wer hier Preis, Länge und Tool-Support zusammenbringt, greift einen echten Engpass an.
Pro und Flash sind nicht bloß Größenklassen
Auf der Release-Seite nennt DeepSeek für V4-Pro 1,6 Billionen Gesamtparameter bei 49 Milliarden aktiven Parametern (laut DeepSeek Release Notes vom 24. April 2026). Schon diese Formulierung zeigt, wo die Familie eingeordnet werden will: nicht als kleines Nebenmodell, sondern als ernsthafte Front gegen die obere Leistungsklasse. Die API-Doku listet daneben DeepSeek-V4-Flash als zweite Preview-Variante. Das deutet auf ein Setup hin, das man inzwischen fast bei allen größeren Modellanbietern sieht: ein stärkeres Vollmodell plus eine schnellere, günstigere Schwester für den Produktionsalltag.
TechCrunch fasst DeepSeeks Positionierung so zusammen, dass beide Modelle dank Architekturverbesserungen effizienter und leistungsfähiger als DeepSeek V3.2 sein sollen. Außerdem schreibt der Bericht, DeepSeek sehe die Lücke zu aktuellen führenden Modellen bei Reasoning-Benchmarks inzwischen fast geschlossen. Solche Aussagen sollte man wie immer mit Vorsicht lesen. Sie sind zunächst Selbstbeschreibung. Trotzdem sind sie relevant, weil sie zeigen, wo DeepSeek den Angriff setzt: nicht nur auf Preis, sondern auf das Paket aus Qualität, Effizienz und Agententauglichkeit.
Warum 1 Million Token gerade für Agenten wichtig sind
Das Spannende an V4 ist nicht allein die nackte Zahl, sondern der Einsatzzusammenhang. Ein Agent, der Tickets bearbeitet, Code analysiert oder mehrere Dokumente gegeneinander hält, profitiert selten von einem einzelnen Superprompt. Er profitiert davon, dass frühere Arbeitsschritte nicht sofort aus dem Fenster fallen. Genau dort hilft ein sehr langes Kontextfenster.
Ein praktisches Beispiel: Ein Coding-Agent soll ein größeres Repository prüfen, dazu Fehlermeldungen aus CI, einen Changelog-Entwurf und mehrere offene Aufgaben berücksichtigen. In kleineren Kontextfenstern landet man schnell in einem Spiel aus Zusammenfassen, Nachladen und Hoffen, dass nichts Wichtiges verloren geht. Mit 1 Million Token wird dieses Problem nicht magisch gelöst, aber deutlich verschoben. Das erlaubt längere Sessions mit weniger künstlicher Fragmentierung.
Dass DeepSeek die Preview ausdrücklich mit Coding- und Agenten-Szenarien rahmt, macht die Sache für Agentenbauer interessanter als eine reine Benchmark-Meldung. Wer Modelle nur fürs Textpolieren sucht, findet auch anderswo genug Auswahl. Wer dagegen mehrstufige Automationen baut, achtet eher darauf, wie sauber ein Modell lange Arbeitskontexte zusammenhält und ob es auch in längeren Sitzungen nicht auseinanderfällt.
Der Preiswinkel dürfte fast wichtiger sein als die Benchmarks
DeepSeek koppelt die V4-Familie ausdrücklich an das Thema Kosten. Schon die Release-Mitteilung spricht von „cost-effective“. Entscheidend ist hier weniger ein einzelner Preiswert als die strategische Aussage: DeepSeek will langes Kontextfenster nicht als Luxusprodukt verkaufen, sondern als praktisch nutzbare Betriebsoption.
Das ist für Agentensysteme zentral. Ein großes Kontextfenster bringt wenig, wenn es im Alltag finanziell unbrauchbar bleibt. Viele Teams kennen das Problem: Der Prototyp sieht gut aus, aber in realen Workflows wachsen Prompt-Last, Tool-Ergebnisse und Iterationen schneller als das Budget. Wenn DeepSeek tatsächlich ein günstigeres Verhältnis aus Kontext, Leistung und Tool-Nutzung hinbekommt, trifft das direkt einen Markt, in dem heute noch viele Setups zwischen Qualität und Kosten jonglieren.
Was an der Preview noch offen bleibt
Trotz aller Spannung ist das keine fertige Schlusspunkt-Meldung. Eine Preview ist eben eine Preview. Die eigentliche Bewährungsprobe liegt nicht in der Ankündigung, sondern darin, wie stabil die Modelle in langen Sitzungen bleiben, wie gut Tool-Aufrufe unter Last funktionieren und ob die versprochene Effizienz auch außerhalb eigener Benchmarks trägt.
Gerade bei 1-Million-Token-Versprechen lohnt sich Nüchternheit. Große Kontextfenster sehen in Produktseiten beeindruckend aus, doch im Alltag zählen andere Fragen mindestens genauso viel: Bleibt die Antwortqualität über sehr lange Kontexte konsistent? Werden relevante Stellen zuverlässig wieder aufgegriffen? Oder entsteht nur ein großes Ablagefach, in dem Wichtiges trotzdem untergeht? Dazu liefert die Preview naturgemäß noch keine endgültige Antwort.
Was sich für den Markt verschiebt
DeepSeek setzt mit V4 an einer Stelle an, die gerade heiß wird: Modelle werden nicht mehr nur nach Chat-Qualität beurteilt, sondern nach ihrer Eignung als Laufzeit für Agenten. Dafür braucht es mehr als hohe Punktzahlen. Es braucht langes Kontextfenster, strukturierte Ausgaben, Werkzeugnutzung und ein Kostenprofil, das produktive Nutzung nicht sofort bestraft.
Genau deshalb ist diese Preview relevanter, als der Name „V4“ zunächst vermuten lässt. DeepSeek versucht hier nicht bloß, ein weiteres Modell zu veröffentlichen. Das Unternehmen formuliert einen Anspruch darauf, dass lange, tool-lastige und coding-nahe Workflows nicht automatisch den teuersten Frontier-Modellen vorbehalten sein müssen. Wenn dieser Anspruch in der Praxis trägt, steigt der Druck auf andere Anbieter, ihre Agenten-Story nicht nur über Benchmarks, sondern über echte Betriebskosten und Nutzbarkeit zu verkaufen.
Für Entwickler ist die Nachricht damit ziemlich klar: Beobachte nicht nur die Benchmarks, sondern vor allem, wie sich DeepSeek-V4 in langen Sessions mit Werkzeugen und realen Arbeitskontexten schlägt. Genau dort entscheidet sich, ob aus einer auffälligen Preview ein ernsthaftes Modell für produktive Agentensysteme wird.
Transparenz
Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.
Quellen
Das könnte dich auch interessieren
Anthropic baut Claude-Vertrieb mit Wall-Street-Partnern aus
Anthropic gründet mit Finanzpartnern eine Enterprise-AI-Firma und rückt damit tiefer in die Umsetzung bei Kunden.
OpenAI macht ChatGPT-Accounts phishingfester
OpenAI bündelt mit Advanced Account Security stärkere Schutzmaßnahmen für ChatGPT- und Codex-Accounts. Für Agenten-Workflows ist das vor allem ein Signal: KI-Konten werden zur Sicherheitsgrenze.
Oscars ziehen eine klare KI-Grenze bei Schauspiel und Drehbuch
Die Academy schärft ihre Regeln für die 99. Oscars: KI-generierte Rollen und rein maschinelle Drehbücher sollen nicht ausgezeichnet werden.