Если раньше ИИ считался умным, когда «читал всё подряд», то теперь, похоже, он стал по‑настоящему взрослым и ленится как хороший опытный программист: читает только то, что нужно, и только когда прижмёт.

В конце 2024 Anthropic представила открытый стандарт Model Context Protocol (MCP). Он позволяет подключать ИИ‑модели и агентные оболочки — вроде популярного Claude Code — к внешним инструментам и данным: от GitHub и Docker до локальной файловой системы. Это был рывок вперёд: один агент — множество функций, всё единообразно и предсказуемо.

Но успех MCP породил и проблему: «налог на запуск». Чем больше MCP‑серверов и тулов вы добавляли, тем больше контекста сжигалось на инструкции. Тари́к Шихипар из Anthropic отмечал случаи с 50+ инструментами на сервер и 7+ серверов, где только описания занимали 67k+ токенов. Аналитик Акаш Гупта приводил пример Docker‑сервера, который один «съедал» 125k токенов на 135 инструментов. При лимите в 200k это выглядело как половина головы, забитая справочниками, ещё до первой мысли.

MCP Tool Search: ленивый ИИ — точный ИИ

Ночью команда Claude Code выкатила обновление, которое переворачивает архитектуру: MCP Tool Search. Внутри — знакомая любому разработчику идея lazy loading.

Как это устроено:

  • Система следит за тем, сколько контекста уйдёт на описания инструментов.
  • Если это больше 10% окна, Claude не подгружает всё подряд.
  • Вместо этого строится лёгкий поисковый индекс.
  • Когда пользователь просит действие вроде «задеплой этот контейнер», модель:
    1. Ищет по индексу подходящий тул,
    2. Подтягивает только его определение в контекст.

Внутренние тесты Anthropic показывают снижение расхода токенов на инструменты с ~134k до ~5k — экономия около 85% без потери доступа к функциям.

Для разработчиков MCP‑серверов это меняет приоритеты: поле server instructions теперь становится ключевой «метадатой‑маяком», которая помогает модели понять, когда и что искать.

Меньше шума — больше точности

Главный бонус даже не в экономии, а в фокусе. LLM плохо работает, когда окружена километрами нерелевантной документации: похожие команды вроде notification-send-user и notification-send-channel начинают путаться.

После включения Tool Search:

  • точность Opus 4 на MCP‑бенчмарках выросла с 49% до 74%;
  • у Opus 4.5 — с 79,5% до 88,1%.

Как подчеркнул глава Claude Code Борис Черни, пользователи получили «больше контекста, лучшее следование инструкциям и возможность подключать больше инструментов» — фактически, ИИ‑IDE вышла на новый уровень.

Из хакатона — во взрослую инфраструктуру

Акаш Гупта справедливо сравнил это с эволюцией IDE: VSCode и JetBrains не грузят все плагины и их доки в память при старте. MCP Tool Search приносит ту же дисциплину в мир ИИ‑агентов.

Результат: вместо жёсткого лимита «2–3 сервера, иначе всё сломается», разработчики могут строить агентов с тысячами инструментов — базы, облако, API, локальные утилиты — и платить за них не авансом, а по факту использования.

Anthropic уже разворачивает обновление для всех пользователей Claude Code и рекомендует авторам MCP‑клиентов внедрять ToolSearchTool. Так стек ИИ понемногу превращается из игрушки в полноценную, аккуратно спроектированную платформу — ту самую, на которой и российские команды смогут строить серьёзные, многоинструментальные системы, не опасаясь, что модель «забудет всё важное, пока читает мануалы».