kinewsletter.chkinewsletter.ch
News
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-Archiv
Search
News
Kategorien
KI-ForschungKI-BusinessRegulierung & EthikKI in der SchweizKI-Tools & AppsNeue Modelle
Newsletter-ArchivÜber unsSuche
Kostenlos abonnieren
kinewsletter.chkinewsletter.ch

Der wöchentliche KI-Newsletter für die Schweiz. Kompakt, relevant, zero Bullshit. 5 Minuten lesen, 1 Woche informiert.

Navigation

Alle NewsNewsletter-ArchivAutorenÜber unsKontakt

Rechtliches

ImpressumDatenschutzAGB

© 2026Inoo GmbH · Altstätten SG · Schweiz

Swiss Made SoftwareEin Produkt vonInooInoo
  1. Home
  2. KI-News
  3. Neue Modelle
  4. DeepSeek V4 und Qwen3.6 setzen proprietäre Labs unter Druck – Open Weights auf Rekordniveau
Neue Modelle

DeepSeek V4 und Qwen3.6 setzen proprietäre Labs unter Druck – Open Weights auf Rekordniveau

Zwei Tage, zwei Meilensteine: DeepSeek liefert das grösste Open-Weights-Modell der Geschichte, Alibabas Qwen3.6 schlägt mit 27 Milliarden Parametern ein 15-mal grösseres Modell beim Coding.

Freitag, 24. April 2026~2 Min. Lesezeit
Pascal Eugster
Pascal EugsterGründer & Entwickler
Handgezeichnete Skizze einer offenen Schatztruhe mit Chips und einer Waage
Handgezeichnete Skizze einer offenen Schatztruhe mit Chips und einer Waage
Das Wichtigste

DeepSeek V4-Pro ist mit 1,6 Billionen Parametern das grösste Open-Weights-Modell der Geschichte, während Qwen3.6-27B beweist, dass ein kompaktes Modell auf einer einzelnen GPU Flagship-Coding-Performance liefern kann – der Druck auf proprietäre Labs war nie grösser.

1,6 Billionen Parameter unter MIT-Lizenz

Am 24. April veröffentlichte DeepSeek zwei Modelle unter MIT-Lizenz: DeepSeek V4-Pro mit 1,6 Billionen Gesamtparametern (49 Milliarden aktiv) und V4-Flash mit 284 Milliarden (13 Milliarden aktiv). Beide nutzen eine Mixture-of-Experts-Architektur mit einem Kontextfenster von einer Million Tokens. V4-Pro ist damit das grösste Open-Weights-Modell überhaupt – grösser als Kimi K2.6 (1,1 Billionen) und mehr als doppelt so gross wie DeepSeeks eigener Vorgänger V3.2.

Beim Coding erreicht V4-Pro einen Codeforces-Score von 3’206 – über GPT-5.4 xHigh – und 55,4 Prozent auf SWE-Bench Pro. V4-Flash ist das eigentliche Preisbrecher-Modell: Nur $0,14 pro Million Input-Tokens und $0,28 pro Million Output-Tokens – das günstigste Frontier-Modell am Markt.

27 Milliarden schlagen 397 Milliarden

Zwei Tage zuvor hatte Alibabas Qwen-Team mit Qwen3.6-27B vorgelegt – ein dichtes (kein MoE) Modell unter Apache-2.0-Lizenz. Das Bemerkenswerte: Es übertrifft das hauseigene, 15-mal grössere Qwen3.5-397B-MoE auf den wichtigsten Coding-Benchmarks. Die Zahlen: 77,2 Prozent auf SWE-Bench Verified (vs. 76,2 beim 397B-Modell), 59,3 Prozent auf Terminal-Bench 2.0 (vs. 52,5) und 48,2 auf SkillsBench (vs. 30,0). Damit liegt Qwen3.6-27B auf dem Niveau von Claude Opus 4.5 und 4.6.

Der Clou: Das Modell läuft auf einer einzigen RTX 4090 mit 18 GB VRAM – Flagship-Coding-Performance für Hardware, die in vielen Büros steht. Innerhalb von 24 Stunden: 23’964 Downloads auf Hugging Face und 113 Community-Quantisierungen.

Tencent und Alibaba wollen bei DeepSeek einsteigen

Parallel zur Modell-Offensive verdichtete sich die Funding-Story: Bloomberg meldete am 24. April, dass Tencent und Alibaba mit DeepSeek über die erste externe Finanzierungsrunde verhandeln. Tencent schlug bis zu 20 Prozent Anteil vor – wurde aber abgewiesen. Die anvisierte Bewertung liegt bei über 20 Milliarden Dollar. DeepSeek gehört dem chinesischen Hedgefonds High-Flyer Capital Management und hat bisher keine externen Investoren.

Schweiz-Kontext

Die Open-Weights-Offensive ist für Schweizer Unternehmen besonders relevant: DeepSeek V4-Flash und Qwen3.6-27B erlauben lokales Deployment auf eigener Hardware – ein wichtiges Argument für Branchen mit strengen Datenschutzanforderungen wie Finanzdienstleistungen, Pharma und öffentliche Verwaltung. Die ETH Zürich und das Swiss AI Center arbeiten bereits mit Open-Weights-Modellen in Forschungsprojekten. Die Preisgestaltung von V4-Flash ($0,14/Mio. Tokens) unterbietet selbst die günstigsten europäischen Hosting-Angebote.

Quellen

  • Simon Willison: DeepSeek V4 – almost on the frontier, a fraction of the price(wird in neuem Tab geöffnet)
  • Hugging Face: DeepSeek-V4-Pro(wird in neuem Tab geöffnet)
  • Simon Willison: Qwen3.6-27B – Flagship-Level Coding in a 27B Dense Model(wird in neuem Tab geöffnet)
  • Hugging Face: Qwen3.6-27B(wird in neuem Tab geöffnet)
  • Bloomberg: Tencent, Alibaba in Talks to Join DeepSeek’s First Funding Round(wird in neuem Tab geöffnet)
Teilen:

Das könnte dich auch interessieren

Handgezeichnete Skizze einer Kartoffelpflanze die aus einem Computerchip wächst mit Tachometer
Handgezeichnete Skizze einer Kartoffelpflanze die aus einem Computerchip wächst mit Tachometer
Neue Modelle
23. April 2026

GPT-5.5 ist da – OpenAIs «Spud» denkt schneller und braucht weniger Tokens

Sechs Wochen nach GPT-5.4 legt OpenAI nach: GPT-5.5 soll das smarteste Modell des Unternehmens sein – mit doppeltem API-Preis, aber deutlich höherer Token-Effizienz.

OpenAIs GPT-5.5 «Spud» ist schneller und token-effizienter als sein Vorgänger, verdoppelt aber den API-Preis – sechs Wochen nach GPT-5.4 ein Signal, dass das KI-Wettrüsten keine Pause kennt.

Weiterlesen
Illustration eines Thermometers mit fallendem Quecksilber und zerbrochenen Zahnrädern, kinewsletter.ch Stil
Illustration eines Thermometers mit fallendem Quecksilber und zerbrochenen Zahnrädern, kinewsletter.ch Stil
Neue Modelle
17. April 2026

Claude unter Beschuss: Wurde das Modell heimlich verschlechtert?

AMD-Ingenieurin analysiert 6.852 Claude-Code-Sessions und dokumentiert einen massiven Rückgang der Denktiefe. Anthropic bestätigt zwei Produktänderungen – bestreitet aber gezieltes «Nerfing».

Anthropic bestätigt, dass zwei Produktänderungen die Denktiefe von Claude reduzierten – bestreitet aber gezieltes Nerfing. Eine AMD-Ingenieurin belegt den Leistungseinbruch mit 6.852 analysierten Sessions.

Weiterlesen
Illustration einer Schaltzentrale mit Monitoren und Servern, kinewsletter.ch Stil
Illustration einer Schaltzentrale mit Monitoren und Servern, kinewsletter.ch Stil
Neue Modelle
17. April 2026

Claude Opus 4.7 ist da – und holt sich die Coding-Krone zurück

Anthropic hat am 16. April sein neues Flaggschiff-Modell vorgestellt. Claude Opus 4.7 übertrifft GPT-5.4 und Gemini 3.1 Pro in den wichtigsten Coding-Benchmarks – und bringt Features mit, die den Alltag von Entwicklern verändern dürften.

Claude Opus 4.7 setzt mit 87,6 Prozent auf SWE-bench Verified einen neuen Bestwert und überholt GPT-5.4 und Gemini 3.1 Pro – für Entwickler der bisher grösste Sprung zwischen zwei Claude-Generationen.

Weiterlesen