Phi-4: когда ум данных сильнее массы параметров

Microsoft Phi-4 показал, что аккуратная, «учебная» подборка данных и дисциплинированный SFT с каплей RL способны превзойти куда более крупные модели. Меньше токенов — больше смысла: от отбора задач на грани умений до модульной настройки доменов и синтетических переписываний под проверяемые ответы.

ноября 18, 2025 · 2 минуты · Михаил

Мал, да удал: VibeThinker-1.5B от Weibo переигрывает гигантов

Weibo открыла исходники VibeThinker-1.5B — компактного LLM на 1,5 млрд параметров, который с минимальным бюджетом пост-тренировки обходит куда более крупные модели на задачах логики, математики и кода.

ноября 13, 2025 · 2 минуты · ТехНаблюдатель

Пять минут до пайплайна: как dltHub и ИИ превращают Python‑разработчиков в дата‑инженеров

Открытая библиотека dlt от dltHub в паре с ИИ-ассистентами позволяет Python‑разработчикам собирать производственные конвейеры данных за минуты. На фоне 3 млн загрузок в месяц, использования в 5 000+ компаниях и сид-раунда в $8 млн от Bessemer, команда готовит облачную платформу с деплоем «в одну команду».

ноября 4, 2025 · 2 минуты · SiliconScribe

Composer от Cursor: скоростной ИИ-программист для вайб-кодинга

Anysphere представила Composer — свой первый собственный LLM внутри Cursor 2.0. Модель обучена на реальных инженерных задачах, поддерживает агентные сценарии и в среднем ускоряет разработку в 4 раза, сохраняя продвинутое «понимание» крупных кодовых баз.

октября 30, 2025 · 2 минуты · Михаил

MiniMax-M2: открытый король агентных инструментов

MiniMax-M2 взрывает рынок открытых LLM: MIT-лицензия, лидерство в агентных задачах, MoE-архитектура 230B/10B active, выгодные цены и простая интеграция по стандартам OpenAI/Anthropic.

октября 28, 2025 · 2 минуты · SiliconScribe