DeepSeek hat leise ein Produkt-Tiering eingeführt — und ein neuer Leak deutet auf ein massives Modell-Upgrade hin.

DeepSeek führt erstmals verschiedene Leistungsstufen ein — ein Zeichen, dass Premium-Features bald kosten könnten.
DeepSeek hat leise ein Produkt-Tiering eingeführt — und ein neuer Leak deutet auf ein massives Modell-Upgrade hin.
Am 8. April rollte DeepSeek still Fast Mode und Expert Mode in Web- und Mobil-Apps aus. Es ist das erste Produkt-Tiering des bisher komplett kostenlosen Dienstes. Expert Mode zeigt bessere Leistung bei komplexem Mathe- und Physik-Reasoning. Ein geleakter Screenshot auf chinesischen Social Media zeigte zudem einen Vision Mode für multimodales Input.
Die V4-Specs, die auf chinesischen Plattformen kursieren, klingen ambitioniert: 1 Billion MoE-Parameter (davon ~37 Milliarden aktiv), ein Kontextfenster von 1 Million Tokens, multimodales Processing und ein «Engram»-Langzeitgedächtnis. Die Benchmark-Zahlen: 81 % auf SWE-bench, ~$0,30 pro Million Tokens.
Die V4-Lite soll seit Anfang April auf API-Nodes getestet werden — mit 30 % schnellerer Inferenz als der Vorgänger. Beste Schätzung für den vollen Launch: Ende April 2026.
Die aktuelle API-Dokumentation zeigt weiterhin nur V3.2-Endpoints. Aber das neue Tiering könnte ein Zeichen sein, dass DeepSeek beginnt, Premium-Funktionen vom kostenlosen Angebot zu trennen. Für dich bedeutet das: Geniesse den kostenlosen Expert Mode, solange er da ist.

AMD-Ingenieurin analysiert 6.852 Claude-Code-Sessions und dokumentiert einen massiven Rückgang der Denktiefe. Anthropic bestätigt zwei Produktänderungen – bestreitet aber gezieltes «Nerfing».
Anthropic bestätigt, dass zwei Produktänderungen die Denktiefe von Claude reduzierten – bestreitet aber gezieltes Nerfing. Eine AMD-Ingenieurin belegt den Leistungseinbruch mit 6.852 analysierten Sessions.

Anthropic hat am 16. April sein neues Flaggschiff-Modell vorgestellt. Claude Opus 4.7 übertrifft GPT-5.4 und Gemini 3.1 Pro in den wichtigsten Coding-Benchmarks – und bringt Features mit, die den Alltag von Entwicklern verändern dürften.
Claude Opus 4.7 setzt mit 87,6 Prozent auf SWE-bench Verified einen neuen Bestwert und überholt GPT-5.4 und Gemini 3.1 Pro – für Entwickler der bisher grösste Sprung zwischen zwei Claude-Generationen.

Neun Claude-Opus-4.6-Agenten übertrafen menschliche Forscher auf einem Alignment-Problem – aber die Methode generalisierte nicht auf Produktionsmodelle.
KI kann Forschung beschleunigen, aber Generalisierung und Reward-Hacking bleiben die zentralen Hürden.