$ grep -r "models" ./posts/

# models

qwen-36-27b-dense-coding.md
Qwen3.6-27B — 27 миллиардов параметров обыграли 397 миллиардов на кодинге. И всё это влезает в одну GPU
> · 8 мин

Qwen3.6-27B — 27 миллиардов параметров обыграли 397 миллиардов на кодинге. И всё это влезает в одну GPU

27B dense-модель Alibaba под Apache 2.0 берёт 77.2% на SWE-bench Verified (уровень Claude Opus 4.5) и обходит собственного 397B MoE-предшественника. Влезает в RTX 4090 в Q4, мультимодальная, 262K контекста нативно (до 1M через YaRN). На OpenRouter $0.32 / $3.20 за миллион токенов.

ai llm coding open-source
deepseek-v4-release.md
DeepSeek V4 — миллион токенов за $3.48, open-weights под MIT и работа без Nvidia
> · 9 мин

DeepSeek V4 — миллион токенов за $3.48, open-weights под MIT и работа без Nvidia

DeepSeek V4 Pro и Flash: 1.6 триллиона параметров, миллион токенов контекста, MIT-лицензия, $3.48 за миллион выходных токенов и нативная поддержка Huawei Ascend. Open-weights flagship, который стоит в 21 раз дешевле Opus 4.7.

ai agents llm open-source
claude-opus-47-sonnet-48-leak.md
Claude Opus 4.7 и Sonnet 4.8 нашли в утечке кода Anthropic. Тем временем Opus 4.6 деградирует на глазах
> · 10 мин

Claude Opus 4.7 и Sonnet 4.8 нашли в утечке кода Anthropic. Тем временем Opus 4.6 деградирует на глазах

Двойная утечка кода Anthropic раскрыла Opus 4.7, Sonnet 4.8 и новый тир Capybara выше Opus. Одновременно директор AI в AMD доказала деградацию Opus 4.6 данными из 6852 сессий: reasoning упал на 67%, расходы выросли в 122 раза. Разбираем что произошло, зачем нерфить модель и как починить.

ai llm claude anthropic