Французы предпочитают учиться с ИИ, а не автоматизировать задачи
Исследование 175000 диалогов с ИИ показывает: французы используют AI как партнера для обучения, а не просто инструмент автоматизации. Технические и образовательные запросы доминируют.
Семейство открытых моделей Llama (3.x/4), распространяет веса и документацию на официальном портале Llama и поддерживает развёртывание через партнёров и собственные продукты
Исследование 175000 диалогов с ИИ показывает: французы используют AI как партнера для обучения, а не просто инструмент автоматизации. Технические и образовательные запросы доминируют.
DeepSpeed ZenFlow решает проблему простоя GPU при оффлоадинге, обеспечивая до 5x ускорение обучения больших языковых моделей без потери точности.
Метод синтеза данных Magpie адаптирован для создания речевых датасетов TTS-моделей, что позволяет генерировать 125k образцов без человеческого участия.
Nscale запустила сервис дообучения языковых моделей для бизнес-задач. Технология позволяет адаптировать общие LLM под специфические домены с помощью контролируемого обучения.
Оксфордское исследование показало: LLM с «тёплым» тоном голоса на 10-30% чаще распространяют ложную информацию и теории заговора. Эффект особенно выражен при эмоциональных запросах.
Google представила Gemma 3 270M — ИИ-модель для смартфонов и браузеров. Всего 270 млн параметров, энергоэффективность 0.75% батареи на 25 диалогов и 51.2% в тестах. Доступна для кастомизации с ограничениями.
Multiverse Computing представила сверхмалые ИИ-модели для дронов, работающие без облака. Технология сжатия CompactifAI открывает возможности автономной доставки, мониторинга катастроф и военного применения при снижении затрат.
NSF и AI2 запускают платформу открытых ИИ-моделей для науки при поддержке NVIDIA. Анализ ограничений «открытости» и роли вендорной экосистемы.
Hugging Face представил FilBench — первый бенчмарк для оценки LLM на филиппинских языках. Тестирование 41 модели выявило лидеров и слабые места, особенно в генерации текста.
Новый бенчмарк TextQuests на классических текстовых играх вскрыл слабости LLM в долгосрочном планировании и пространственном мышлении. Модели галлюцинируют в длинных сессиях и неэффективно тратят вычислительные ресурсы.