Математика MoE-моделей раскрыта: что на самом деле означает 8x7B
Подробный разбор математики MoE-моделей: от расчета памяти до вычислительной сложности. Почему 8x7B на самом деле означает 13B активных параметров.
Обзоры новых релизов, сравнения моделей, анализ возможностей и ограничений современных LLM. Следите за развитием технологий искусственного интеллекта в области обработки естественного языка.
Подробный разбор математики MoE-моделей: от расчета памяти до вычислительной сложности. Почему 8x7B на самом деле означает 13B активных параметров.
Сооснователь Anthropic сравнил развитие ИИ с самосознанием молотков, подчеркивая непредсказуемость эмерджентных способностей и необходимость серьезного отношения к технологии.
Hugging Face выпустила две эффективные модели с гибридной линейной архитектурой, сокращающие затраты на инференс в 10 раз по сравнению с плотными моделями.
Разбираем, что означает каждая буква в аббревиатуре GPT и почему эта технология стала основой современных языковых моделей ИИ.
Новый метод C2C позволяет языковым моделям обмениваться внутренней памятью вместо текста, повышая скорость взаимодействия в 2 раза и точность на 8-10%.
Together AI представила ATLAS — первую самообучающуюся систему спекулятивного декодирования, которая автоматически улучшает производительность LLM во время работы.
Google Gemini преодолел 1 млрд посещений в месяц, обгоняя ChatGPT по темпам роста. Битва ИИ перешла в фазу экономического противостояния бизнес-моделей.
Hugging Face выпустила Mem-Agent — инструмент для создания ИИ-агентов с долговременной памятью, способных сохранять контекст между сессиями.
Google запускает Gemini Enterprise — комплексную платформу ИИ для бизнеса, объединяющую модели Gemini, готовых агентов и инструменты управления для трансформации рабочих процессов.
Стартап Reflection AI привлек 2 млрд долларов для создания открытой лаборатории ИИ, конкурирующей с китайскими разработками. Компания планирует выпустить frontier language model в 2026 году.