Похоже, программисты нашли новый талисман — не хрюкающего бодрого поросёнка, а гусёнка, который делает деплой лучше, чем ваш бывший начальник (шутка — начальников жалко). Goose от Block — это тёплая, радостная альтернатива дорогим облачным помощникам для кода, и её главное достоинство — свобода.
Anthropic с Claude Code впечатлил мир возможностями, но не всех устроили тарифы до $200 в месяц и путаные лимиты. Вместо очередной подписки Goose предлагает работать локально: устанавливаете Ollama, скачиваете модель и получаете агента, который может создавать файлы, запускать тесты, править баги и взаимодействовать с API — без внешних серверов и счёта от кредитки.
Проект живёт на GitHub: тысячи звёзд, сотни контрибьюторов и быстрые релизы говорят сами за себя. Goose модель‑агностичен — вы можете связать его с Claude, GPT‑5, Gemini или оставить всё внутри машины и не отправлять ни строки кода в облако. Для тех, кто любит работать в самолёте или просто не желает делиться приватными репозиториями — это выигрыш.
Естественно, есть компромиссы. Opus 4.5 и крупные проприетарные модели пока сильнее в некоторых тонких задачах и масштабных контекстах; облачные сервисы дают огромные контекстные окна и быструю инференцию на серверных фермách. Локальные LLM требуют памяти (идеально — ~32 ГБ) и терпения при настройке. Но многие современные моделей всё ближе по качеству, а цена (нули) и контроль над данными остаются главным аргументом в пользу Goose.
Если вы устали от чёрных ящиков и ежемесячных счетов, Goose — не мантра, но мощный инструмент свободы: выбираете модель, настраиваете среду и получаете автономного напарника, который действительно принадлежит вам. Скачать и попробовать можно в официальной документации проекта: https://block.github.io/goose/ и на https://ollama.com/.
