Если раньше ИИ считался умным, когда «читал всё подряд», то теперь, похоже, он стал по‑настоящему взрослым и ленится как хороший опытный программист: читает только то, что нужно, и только когда прижмёт.
В конце 2024 Anthropic представила открытый стандарт Model Context Protocol (MCP). Он позволяет подключать ИИ‑модели и агентные оболочки — вроде популярного Claude Code — к внешним инструментам и данным: от GitHub и Docker до локальной файловой системы. Это был рывок вперёд: один агент — множество функций, всё единообразно и предсказуемо.
Но успех MCP породил и проблему: «налог на запуск». Чем больше MCP‑серверов и тулов вы добавляли, тем больше контекста сжигалось на инструкции. Тари́к Шихипар из Anthropic отмечал случаи с 50+ инструментами на сервер и 7+ серверов, где только описания занимали 67k+ токенов. Аналитик Акаш Гупта приводил пример Docker‑сервера, который один «съедал» 125k токенов на 135 инструментов. При лимите в 200k это выглядело как половина головы, забитая справочниками, ещё до первой мысли.
MCP Tool Search: ленивый ИИ — точный ИИ
Ночью команда Claude Code выкатила обновление, которое переворачивает архитектуру: MCP Tool Search. Внутри — знакомая любому разработчику идея lazy loading.
Как это устроено:
- Система следит за тем, сколько контекста уйдёт на описания инструментов.
- Если это больше 10% окна, Claude не подгружает всё подряд.
- Вместо этого строится лёгкий поисковый индекс.
- Когда пользователь просит действие вроде «задеплой этот контейнер», модель:
- Ищет по индексу подходящий тул,
- Подтягивает только его определение в контекст.
Внутренние тесты Anthropic показывают снижение расхода токенов на инструменты с ~134k до ~5k — экономия около 85% без потери доступа к функциям.
Для разработчиков MCP‑серверов это меняет приоритеты: поле server instructions теперь становится ключевой «метадатой‑маяком», которая помогает модели понять, когда и что искать.
Меньше шума — больше точности
Главный бонус даже не в экономии, а в фокусе. LLM плохо работает, когда окружена километрами нерелевантной документации: похожие команды вроде notification-send-user и notification-send-channel начинают путаться.
После включения Tool Search:
- точность Opus 4 на MCP‑бенчмарках выросла с 49% до 74%;
- у Opus 4.5 — с 79,5% до 88,1%.
Как подчеркнул глава Claude Code Борис Черни, пользователи получили «больше контекста, лучшее следование инструкциям и возможность подключать больше инструментов» — фактически, ИИ‑IDE вышла на новый уровень.
Из хакатона — во взрослую инфраструктуру
Акаш Гупта справедливо сравнил это с эволюцией IDE: VSCode и JetBrains не грузят все плагины и их доки в память при старте. MCP Tool Search приносит ту же дисциплину в мир ИИ‑агентов.
Результат: вместо жёсткого лимита «2–3 сервера, иначе всё сломается», разработчики могут строить агентов с тысячами инструментов — базы, облако, API, локальные утилиты — и платить за них не авансом, а по факту использования.
Anthropic уже разворачивает обновление для всех пользователей Claude Code и рекомендует авторам MCP‑клиентов внедрять ToolSearchTool. Так стек ИИ понемногу превращается из игрушки в полноценную, аккуратно спроектированную платформу — ту самую, на которой и российские команды смогут строить серьёзные, многоинструментальные системы, не опасаясь, что модель «забудет всё важное, пока читает мануалы».
