# models
Qwen3.6-27B — 27 миллиардов параметров обыграли 397 миллиардов на кодинге. И всё это влезает в одну GPU
27B dense-модель Alibaba под Apache 2.0 берёт 77.2% на SWE-bench Verified (уровень Claude Opus 4.5) и обходит собственного 397B MoE-предшественника. Влезает в RTX 4090 в Q4, мультимодальная, 262K контекста нативно (до 1M через YaRN). На OpenRouter $0.32 / $3.20 за миллион токенов.
DeepSeek V4 — миллион токенов за $3.48, open-weights под MIT и работа без Nvidia
DeepSeek V4 Pro и Flash: 1.6 триллиона параметров, миллион токенов контекста, MIT-лицензия, $3.48 за миллион выходных токенов и нативная поддержка Huawei Ascend. Open-weights flagship, который стоит в 21 раз дешевле Opus 4.7.
Claude Opus 4.7 и Sonnet 4.8 нашли в утечке кода Anthropic. Тем временем Opus 4.6 деградирует на глазах
Двойная утечка кода Anthropic раскрыла Opus 4.7, Sonnet 4.8 и новый тир Capybara выше Opus. Одновременно директор AI в AMD доказала деградацию Opus 4.6 данными из 6852 сессий: reasoning упал на 67%, расходы выросли в 122 раза. Разбираем что произошло, зачем нерфить модель и как починить.