Llama.cpp представляет менеджер моделей с Hugging Face для локальной работы с ИИ
Llama.cpp представил встроенный менеджер моделей, который автоматизирует загрузку и управление ИИ-моделями из реестра GGML, упрощая локальную разработку и тестирование.
Семейство открытых моделей Llama (3.x/4), распространяет веса и документацию на официальном портале Llama и поддерживает развёртывание через партнёров и собственные продукты
Llama.cpp представил встроенный менеджер моделей, который автоматизирует загрузку и управление ИИ-моделями из реестра GGML, упрощая локальную разработку и тестирование.
Jais 2 — семейство арабских языковых моделей от G42 и Cerebras, работающих со скоростью 2000 токенов/с и устанавливающих новые стандарты культурного соответствия.
NVIDIA продемонстрировала абсолютное доминирование в тестах MLPerf Training v5.1, установив рекорды во всех семи категориях с архитектурой Blackwell Ultra и впервые использовав вычисления FP4.
KT представила три корейские языковые модели: SOTA K на базе GPT-4o, собственную Mideum и адаптированную Llama K для локального ИИ-рынка.
NVIDIA выпустила модель Nemotron-8B-Embed для генерации векторных представлений текста. Модель доступна в двух версиях с разной длиной контекста и предназначена для семантического поиска и анализа текстовых данных.
Обзор самых разочаровывающих запусков ИИ в 2025 году: от GPT-5 до Meta* Vibes. Почему обещания не совпали с реальностью и что пошло не так у лидеров индустрии.
Новая технология SuperOffload позволяет проводить тонкую настройку LLM до 70B параметров на суперчипах NVIDIA GH200 с ускорением до 4 раз и производительностью 600 TFLOPS.
Практическое руководство по эффективному тонкому настрою Llama 3.1 с использованием Unsloth и QLoRA для кастомизации языковых моделей под конкретные задачи.
Google Research разработала гибридный метод, сочетающий каскады и спекулятивное декодирование для ускорения работы языковых моделей без потери качества генерации.
Together AI обновила платформу для тонкой настройки ИИ-моделей: поддержка 100B+ параметров, удвоение длины контекста и прямая интеграция с Hugging Face Hub.