Zwei Tage, zwei Meilensteine: DeepSeek liefert das grösste Open-Weights-Modell der Geschichte, Alibabas Qwen3.6 schlägt mit 27 Milliarden Parametern ein 15-mal grösseres Modell beim Coding.

DeepSeek V4-Pro ist mit 1,6 Billionen Parametern das grösste Open-Weights-Modell der Geschichte, während Qwen3.6-27B beweist, dass ein kompaktes Modell auf einer einzelnen GPU Flagship-Coding-Performance liefern kann – der Druck auf proprietäre Labs war nie grösser.
Am 24. April veröffentlichte DeepSeek zwei Modelle unter MIT-Lizenz: DeepSeek V4-Pro mit 1,6 Billionen Gesamtparametern (49 Milliarden aktiv) und V4-Flash mit 284 Milliarden (13 Milliarden aktiv). Beide nutzen eine Mixture-of-Experts-Architektur mit einem Kontextfenster von einer Million Tokens. V4-Pro ist damit das grösste Open-Weights-Modell überhaupt – grösser als Kimi K2.6 (1,1 Billionen) und mehr als doppelt so gross wie DeepSeeks eigener Vorgänger V3.2.
Beim Coding erreicht V4-Pro einen Codeforces-Score von 3’206 – über GPT-5.4 xHigh – und 55,4 Prozent auf SWE-Bench Pro. V4-Flash ist das eigentliche Preisbrecher-Modell: Nur $0,14 pro Million Input-Tokens und $0,28 pro Million Output-Tokens – das günstigste Frontier-Modell am Markt.
Zwei Tage zuvor hatte Alibabas Qwen-Team mit Qwen3.6-27B vorgelegt – ein dichtes (kein MoE) Modell unter Apache-2.0-Lizenz. Das Bemerkenswerte: Es übertrifft das hauseigene, 15-mal grössere Qwen3.5-397B-MoE auf den wichtigsten Coding-Benchmarks. Die Zahlen: 77,2 Prozent auf SWE-Bench Verified (vs. 76,2 beim 397B-Modell), 59,3 Prozent auf Terminal-Bench 2.0 (vs. 52,5) und 48,2 auf SkillsBench (vs. 30,0). Damit liegt Qwen3.6-27B auf dem Niveau von Claude Opus 4.5 und 4.6.
Der Clou: Das Modell läuft auf einer einzigen RTX 4090 mit 18 GB VRAM – Flagship-Coding-Performance für Hardware, die in vielen Büros steht. Innerhalb von 24 Stunden: 23’964 Downloads auf Hugging Face und 113 Community-Quantisierungen.
Parallel zur Modell-Offensive verdichtete sich die Funding-Story: Bloomberg meldete am 24. April, dass Tencent und Alibaba mit DeepSeek über die erste externe Finanzierungsrunde verhandeln. Tencent schlug bis zu 20 Prozent Anteil vor – wurde aber abgewiesen. Die anvisierte Bewertung liegt bei über 20 Milliarden Dollar. DeepSeek gehört dem chinesischen Hedgefonds High-Flyer Capital Management und hat bisher keine externen Investoren.
Die Open-Weights-Offensive ist für Schweizer Unternehmen besonders relevant: DeepSeek V4-Flash und Qwen3.6-27B erlauben lokales Deployment auf eigener Hardware – ein wichtiges Argument für Branchen mit strengen Datenschutzanforderungen wie Finanzdienstleistungen, Pharma und öffentliche Verwaltung. Die ETH Zürich und das Swiss AI Center arbeiten bereits mit Open-Weights-Modellen in Forschungsprojekten. Die Preisgestaltung von V4-Flash ($0,14/Mio. Tokens) unterbietet selbst die günstigsten europäischen Hosting-Angebote.

Sechs Wochen nach GPT-5.4 legt OpenAI nach: GPT-5.5 soll das smarteste Modell des Unternehmens sein – mit doppeltem API-Preis, aber deutlich höherer Token-Effizienz.
OpenAIs GPT-5.5 «Spud» ist schneller und token-effizienter als sein Vorgänger, verdoppelt aber den API-Preis – sechs Wochen nach GPT-5.4 ein Signal, dass das KI-Wettrüsten keine Pause kennt.

AMD-Ingenieurin analysiert 6.852 Claude-Code-Sessions und dokumentiert einen massiven Rückgang der Denktiefe. Anthropic bestätigt zwei Produktänderungen – bestreitet aber gezieltes «Nerfing».
Anthropic bestätigt, dass zwei Produktänderungen die Denktiefe von Claude reduzierten – bestreitet aber gezieltes Nerfing. Eine AMD-Ingenieurin belegt den Leistungseinbruch mit 6.852 analysierten Sessions.

Anthropic hat am 16. April sein neues Flaggschiff-Modell vorgestellt. Claude Opus 4.7 übertrifft GPT-5.4 und Gemini 3.1 Pro in den wichtigsten Coding-Benchmarks – und bringt Features mit, die den Alltag von Entwicklern verändern dürften.
Claude Opus 4.7 setzt mit 87,6 Prozent auf SWE-bench Verified einen neuen Bestwert und überholt GPT-5.4 und Gemini 3.1 Pro – für Entwickler der bisher grösste Sprung zwischen zwei Claude-Generationen.