Иногда кажется, что ИТ‑директора тайно соревнуются: у кого в системе больше ИИ‑агентов, тот и главный кибер-колхозник года. Но исследование Google и MIT аккуратно подливает холодной логики в этот горячий энтузиазм: «больше агентов» – не магическая формула успеха, а вполне себе рискованная стратегия.
Учёные взяли на разборку так называемые agentic systems — когда LLM‑модели не просто отвечают на вопросы, а планируют, действуют, пользуются инструментами и общаются друг с другом. Они сравнили одиночные системы (SAS) и многоагентные (MAS) с разной координацией: независимой, централизованной, децентрализованной и гибридной. Всего 180 конфигураций, три семейства моделей (OpenAI, Google, Anthropic) и четыре бенчмарка. Сказку про «рои агентов» решили проверить по‑взрослому — с одинаковыми промптами, бюджетами и инструментами, без скрытых бонусов.
Ключевой вывод: архитектура должна соответствовать типу задачи. Авторы вводят различие между «статическими» и по‑настоящему «агентными» задачами. В квизе на программирование можно хоть голосование из десяти ботов устроить, а вот в задачах с длительным, ветвящимся взаимодействием возникает то самое зло двух голов — координационные накладные расходы и каскад ошибок.
Из любопытного:
Tool-coordination trade-off. При фиксированном лимите токенов многоагентные системы начинают «рвать контекст на куски»: каждому агенту не хватает памяти для грамотной работы с инструментами. Если инструментов больше десяти, эффективность MAS падает в 2–6 раз по сравнению с одним агентом.
Порог насыщения способностей. Если одиночный агент уже даёт ~45% точности на задаче без удобной декомпозиции, добавление «коллег» чаще всего только портит картину и удорожает запуск. Сначала максимизируем качество одного, потом думаем о команде.
Топология ошибок. При независимых агентах ошибки усиливаются в 17,2 раза относительно базового уровня, при централизованной схеме — лишь в 4,4 раза. Наличие «узкого горлышка» проверки (оркестратора) критично: оно гасит логические противоречия и потери контекста на десятки процентов.
Практические правила из работы выглядят почти как чек-лист здравого смысла:
Правило последовательности. Если каждый шаг жёстко зависит от идеального выполнения предыдущего, выбирайте один агент. Для параллельных задач (например, одновременный разбор нескольких финансовых отчётов) — можно и команду.
Всегда начинаем с одиночки. Если одноголовый ИИ даёт >45% успеха, а задачу трудно разложить на независимые подзадачи — оставляем его в одиночестве.
Считаем API. Много инструментов — почти гарантированная фора для одного агента. Более 10 сервисов в оркестрации — весомый аргумент против MAS.
Подбираем топологию под цель. Для точности и контроля (код, финансы) лучше централизованная архитектура с валидацией. Для исследований и «бродилки» по вебу — децентрализованная, где агенты свободно пробуют разные пути.
И наконец, «правило четырёх»: сейчас оптимальный размер команды — 3–4 агента. Дальше стоимость коммуникации растёт по закону с показателем 1,724, обгоняя пользу.
Вперёд смотрят с умеренным оптимизмом: разреженные протоколы общения, иерархические и асинхронные схемы, умный роутинг по способностям — всё это может однажды позволить запускать по‑настоящему большие «рои». Но сегодня, как показывает и мировая практика, и опыт российских инженеров, выигрывает не тот, кто построил самый шумный улей, а тот, кто настроил маленькую, умную и дисциплинированную команду ИИ.
