Если раньше «я только спросить» в Slack заканчивалось недельным рефакторингом, то теперь оно может закончиться готовым pull request’ом. Нет, это не новый вид эксплуатации джунов, это Kilo for Slack — бот, который превращает рабочий тред в работающий код.
Как из треда получается PR
Логика проста: вся суть задачи рождается не в IDE, а в переписке. Продакт кидает баг в канал, команда спорит о причинах, кидает логи и скрины — а потом кто‑то идёт в редактор и по новой объясняет всё ИИ-помощнику. Kilo убирает этот «поход».
Достаточно написать в треде:@Kilo, по этому обсуждению поправь null pointer в Authentication service.
Бот:
- читает весь тред и контекст;
- лезет в подключённые репозитории GitHub (в т.ч. несколько сразу);
- поднимает облачного агента;
- вносит изменения и открывает pull request.
Всё это видно прямо в Slack, без «танцев» между окнами.
Чем Kilo отличается от Cursor и Claude Code
Kilo довольно жёстко позиционируется против гигантов:
- Cursor в Slack привязывается к одному репозиторию; как только задача затрагивает несколько сервисов, начинаются ручные переключения.
- Claude Code в Slack отвечает по локальному контексту сообщения — без долгой «памяти» треда и устойчивого состояния задачи.
Kilo делает ставку на:
- мульти‑репо контекст;
- сохранение истории в рамках длинных обсуждений;
- связку Slack ↔ IDE ↔ GitHub ↔ CLI с единым состоянием.
Китайская модель в американском Slack — как так?
По умолчанию Kilo использует MiniMax M2.1 — модель китайской компании MiniMax, недавно вышедшей на IPO в Гонконге. Для осторожных энтерпрайзов звучит тревожно, но тут важны детали:
- модели крутятся на U.S.-compliant инфраструктуре — AWS Bedrock, Google Vertex, Microsoft AI Foundry;
- данные клиентов не идут на дообучение моделей;
- доступ к Slack и GitHub ограничен ровно теми правами, что одобрил заказчик.
Kilo подчёркивает: платформа модель-агностична. В арсенале более 500 моделей, и предприятие само выбирает, на чём крутиться и где хостить — хоть на MiniMax, хоть на условном «российском on‑prem-кластере под замком».
По данным компании, разрыв между открытыми и закрытыми моделями по ключевым бенчмаркам (HumanEval, MATH, MMLU, Stanford AI Index) сократился примерно с 8% до 1,7%. В LMArena M2.1 вообще выходит на четвёртое место сразу после OpenAI, Anthropic и Google — неплохая заявка для реальных кодовых задач.
Безопасность: кто пустил бота в прод?
Kilo честно признаёт: давать ИИ право пушить код — страшно. Поэтому:
- бот видит только тот тред, где его упомянули, и только явно подключённые репозитории;
- ничего не мёржится автоматически — PR попадает в уже существующие процессы ревью;
- поверх этого можно включить встроенный code review от Kilo, который сам отметит подозрительные изменения ещё до человеческого ревьюера.
То есть это не «ИИ сразу в main», а умный генератор изменений, встроенный в привычные практики контроля качества.
Open source, но не «бесплатно и навсегда»
IDE-расширение Kilo — open source под Apache 2.0, а вот Kilo for Slack — платный облачный сервис. Парадокс знакомый: код открыт, бизнес платный.
Сама команда говорит: форкнуть можно хоть завтра, но:
- инфраструктура для надёжных агентных воркфлоу между Slack, GitHub, IDE и облаком;
- обкатка этого на десятках команд;
- интеграции и энтерпрайз‑контроли
гораздо сложнее, чем просто повторить репозиторий. Это классическая «open core» модель: код — для доверия и гибкости, облако — за стабильность и масштаб.
Кто победит в виб‑кодинге
Рынок «vibe coding» — когда разработчик больше общается с ИИ, чем пишет руками, — уже разогрет до десятков миллиардов:
- Microsoft говорит, что до 30% своего кода пишет ИИ;
- Google скупает команды а‑ля Windsurf за миллиарды;
- Cursor оценивают в $29,3 млрд.
На этом фоне Kilo с 34 людьми и $8 млн сид‑раунда выглядит маленьким, но дерзким игроком. Его ставка: выиграет не тот, у кого модель «толще», а тот, кто лучше вживит ИИ в реальные, грязные, многосоставные процессы разработки.
И в этом смысле идея «код из Slack-треда одной фразой» выглядит не как магия, а как аккуратный шаг туда, где разработчики уже и так живут — в чатах, тредах, и бесконечных обсуждениях, из которых теперь можно, наконец, извлекать не только мемы, но и продакшен-код.
