Как массовый найм дорогостоящих спецов спровоцировал внутреннюю войну в ИИ-отделе
Внутренний конфликт в Meta между новыми дорогостоящими наймами и veteranными исследователями ИИ угрожает планам компании по доминированию в искусственном интеллекте.
Семейство открытых моделей Llama (3.x/4), распространяет веса и документацию на официальном портале Llama и поддерживает развёртывание через партнёров и собственные продукты
Внутренний конфликт в Meta между новыми дорогостоящими наймами и veteranными исследователями ИИ угрожает планам компании по доминированию в искусственном интеллекте.
NVIDIA представила AI Blueprint для автоматической генерации 3D-объектов по текстовым описаниям. Инструмент использует микросервисы Microsoft TRELLIS и ускоряет прототипирование на 20%.
Исследование показало, что языковые модели не способны к клиническим рассуждениям и работают по шаблонам, что делает их ненадежными для медицинской практики.
Cloudflare разработала собственный inference-движок Infire на Rust для эффективного запуска LLM в edge-сети. Решение на 7% быстрее vLLM и оптимизировано для распределенной инфраструктуры.
Meta ускоряет разработку Llama 4.X через новое подразделение Superintelligence Labs, пытаясь исправить провал предыдущей версии и сохранить кадры.
Пентагон преобразует военные академии в центры ИИ-исследований, где офицеры будут изучать и применять алгоритмические системы для решения реальных оперативных задач.
Cloudflare интегрирует Llama Guard в свой Firewall for AI для защиты языковых моделей от вредоносных промптов. Решение работает на сетевом уровне и поддерживает любые LLM.
Исследование показало, что LLM-судьи часто ошибаются в оценке ответов, награждая уверенные, но неверные ответы, что искажает результаты тестирования на 10-20%.
Исследование 175000 диалогов с ИИ показывает: французы используют AI как партнера для обучения, а не просто инструмент автоматизации. Технические и образовательные запросы доминируют.
DeepSpeed ZenFlow решает проблему простоя GPU при оффлоадинге, обеспечивая до 5x ускорение обучения больших языковых моделей без потери точности.