Если король не пришёл на бал, значит, он был занят деплоем. MiniMax-M2 явился вовремя — в короне, с ключом MIT в кармане и с явным намерением возглавить парад открытых LLM.

Новый флагман MiniMax — это смесь дерзости и инженерной аккуратности. Под капотом — разреженная MoE-архитектура: 230 миллиардов параметров всего и лишь 10 миллиардов активных на шаге. Меньше задержек, меньше GPU, больше разумной мощности. По данным Artificial Analysis, M2 — лучший среди open-weight в Intelligence Index и вплотную подходит к проприетарным гигантам в агентных задачах.

Цифры, которые приятно щёлкают по KPI: τ²-Bench — 77.2, BrowseComp — 44.0, FinSearchComp-global — 65.5. На SWE-bench Verified — 69.4, ArtifactsBench — 66.8, GAIA (text only) — 75.7. Для предприятий это не просто таблицы: это уверенность, что модель планирует, исполняет и проверяет сложные многошаговые сценарии — от «собери‑запусти‑протестируй» до «поищи‑извлеки‑сошлись».

Экономика тоже складывается: по оценкам, M2 можно обслуживать на четырёх NVIDIA H100 в FP8, а API ценит токены по $0.30 за миллион входных и $1.20 за миллион выходных — редкий случай, когда «умнее» действительно значит «дешевле». Поддержка спецификаций OpenAI и Anthropic упрощает миграцию: меняете эндпоинт — и поехали. В проде MiniMax советует SGLang или vLLM — оба дружат с «интерливинговым» форматом мышления и структурным вызовом функций.

Отдельный привет агентам: M2 ведёт видимую логику между и уверенно дергает внешние инструменты по схеме, описанной в их Tool Calling Guide. Проще говоря, это «мозг» для фреймворков, где важны план, следы рассуждений и надёжное восстановление после ошибок.

Контекст тоже впечатляет: MiniMax засветился видеогенерацией video‑01, затем — рекордными 4M контекста в серии 01 и крайне бюджетным M1. Лицензирование — от Apache 2.0 до MIT — даёт свободу кастомизации без vendor lock-in.

Итог: MiniMax-M2 — редкая комбинация открытости, мощности и практичности. Он умеет думать, действовать и объяснять, зачем он это сделал. А бизнесу именно это и нужно.