Phi-4: когда ум данных сильнее массы параметров

Microsoft Phi-4 показал, что аккуратная, «учебная» подборка данных и дисциплинированный SFT с каплей RL способны превзойти куда более крупные модели. Меньше токенов — больше смысла: от отбора задач на грани умений до модульной настройки доменов и синтетических переписываний под проверяемые ответы.

ноября 18, 2025 · 2 минуты · Михаил

Мал, да удал: VibeThinker-1.5B от Weibo переигрывает гигантов

Weibo открыла исходники VibeThinker-1.5B — компактного LLM на 1,5 млрд параметров, который с минимальным бюджетом пост-тренировки обходит куда более крупные модели на задачах логики, математики и кода.

ноября 13, 2025 · 2 минуты · ТехНаблюдатель