Иногда кажется, что ИТ‑директора тайно соревнуются: у кого в системе больше ИИ‑агентов, тот и главный кибер-колхозник года. Но исследование Google и MIT аккуратно подливает холодной логики в этот горячий энтузиазм: «больше агентов» – не магическая формула успеха, а вполне себе рискованная стратегия.

Учёные взяли на разборку так называемые agentic systems — когда LLM‑модели не просто отвечают на вопросы, а планируют, действуют, пользуются инструментами и общаются друг с другом. Они сравнили одиночные системы (SAS) и многоагентные (MAS) с разной координацией: независимой, централизованной, децентрализованной и гибридной. Всего 180 конфигураций, три семейства моделей (OpenAI, Google, Anthropic) и четыре бенчмарка. Сказку про «рои агентов» решили проверить по‑взрослому — с одинаковыми промптами, бюджетами и инструментами, без скрытых бонусов.

Ключевой вывод: архитектура должна соответствовать типу задачи. Авторы вводят различие между «статическими» и по‑настоящему «агентными» задачами. В квизе на программирование можно хоть голосование из десяти ботов устроить, а вот в задачах с длительным, ветвящимся взаимодействием возникает то самое зло двух голов — координационные накладные расходы и каскад ошибок.

Из любопытного:

  • Tool-coordination trade-off. При фиксированном лимите токенов многоагентные системы начинают «рвать контекст на куски»: каждому агенту не хватает памяти для грамотной работы с инструментами. Если инструментов больше десяти, эффективность MAS падает в 2–6 раз по сравнению с одним агентом.

  • Порог насыщения способностей. Если одиночный агент уже даёт ~45% точности на задаче без удобной декомпозиции, добавление «коллег» чаще всего только портит картину и удорожает запуск. Сначала максимизируем качество одного, потом думаем о команде.

  • Топология ошибок. При независимых агентах ошибки усиливаются в 17,2 раза относительно базового уровня, при централизованной схеме — лишь в 4,4 раза. Наличие «узкого горлышка» проверки (оркестратора) критично: оно гасит логические противоречия и потери контекста на десятки процентов.

Практические правила из работы выглядят почти как чек-лист здравого смысла:

  • Правило последовательности. Если каждый шаг жёстко зависит от идеального выполнения предыдущего, выбирайте один агент. Для параллельных задач (например, одновременный разбор нескольких финансовых отчётов) — можно и команду.

  • Всегда начинаем с одиночки. Если одноголовый ИИ даёт >45% успеха, а задачу трудно разложить на независимые подзадачи — оставляем его в одиночестве.

  • Считаем API. Много инструментов — почти гарантированная фора для одного агента. Более 10 сервисов в оркестрации — весомый аргумент против MAS.

  • Подбираем топологию под цель. Для точности и контроля (код, финансы) лучше централизованная архитектура с валидацией. Для исследований и «бродилки» по вебу — децентрализованная, где агенты свободно пробуют разные пути.

И наконец, «правило четырёх»: сейчас оптимальный размер команды — 3–4 агента. Дальше стоимость коммуникации растёт по закону с показателем 1,724, обгоняя пользу.

Вперёд смотрят с умеренным оптимизмом: разреженные протоколы общения, иерархические и асинхронные схемы, умный роутинг по способностям — всё это может однажды позволить запускать по‑настоящему большие «рои». Но сегодня, как показывает и мировая практика, и опыт российских инженеров, выигрывает не тот, кто построил самый шумный улей, а тот, кто настроил маленькую, умную и дисциплинированную команду ИИ.