Arcee AI выпускает семейство моделей Trinity с открытыми весами
Американская компания Arcee AI представила семейство языковых моделей Trinity с открытыми весами, полностью обученных в США. В рамках проекта уже доступны модели Trinity Nano и Trinity Mini, а более крупная Trinity Large находится в разработке и должна появиться в январе 2026 года.
Ответ на доминирование китайских лабораторий
По сообщению Arcee AI, последний год в сфере открытых языковых моделей характеризовался доминированием китайских лабораторий — Qwen, DeepSeek и других. В ответ на это американская компания решила создать собственное семейство моделей, полностью обученных в США с прозрачным происхождением данных и лицензией Apache 2.0.
Три модели для разных задач
Семейство Trinity включает три основные модели:
- Trinity Nano Preview — экспериментальная чат-модель с 6 миллиардами параметров, из которых активно только 1 миллиард
- Trinity Mini — полноценная модель для рассуждений с 26 миллиардами параметров
- Trinity Large — крупнейшая модель, обучаемая на 2048 GPU B300 с релизом в январе 2026 года
Trinity Mini позиционируется как компактная модель для рассуждений, предназначенная для агентов, инструментов и других многошаговых рабочих нагрузок. Ее качество вывода приближается к текущим instruct-моделям.
Стратегические причины создания собственных моделей
Компания выделяет три ключевые причины, побудившие ее инвестировать в полный цикл обучения:
- Потолок производительности — на некоторых сложных задачах дообучение базовых моделей показывает убывающую отдачу
- Юридическая безопасность — предприятия все чаще интересуются происхождением базовых моделей и данными обучения
- Долгосрочное видение продукта — системы будущего должны самостоятельно обучаться и адаптироваться
Интересный ход — вместо того чтобы просто дообучать чужие модели, Arcee решила построить полный стек. Это напоминает стратегию Apple в мире ИИ: контроль над всей цепочкой создания стоимости. Особенно впечатляет срок релиза Trinity Large — январь 2026 года, что говорит об амбициозных планах компании.
Архитектурные особенности
Архитектура Trinity, названная afmoe, сочетает несколько передовых технологий:
- Групповое внимание запросов для экономии памяти
- Нормализация RMSNorm для стабилизации обучения
- Вентильное внимание с возможностью модуляции выходов
- Сочетание локального и глобального внимания в соотношении 3:1
- Mixture-of-Experts по схеме DeepSeekMoE с 128 экспертами
Модель использует сигмоидную маршрутизацию из DeepSeek-V3 и схему балансировки нагрузки без вспомогательных потерь.
Доступность и цены
Trinity Mini доступна через API компании и OpenRouter по цене $0.045 / $0.15 с бесплатным тарифом и ограничениями. Обе модели можно скачать с Hugging Face под лицензией Apache 2.0.
Компания также запустила предварительную версию своей чат-платформы на chat.arcee.ai, где будут размещены все модели семейства Trinity.
Ценовая политика выглядит агрессивной — $0.045 за запрос делает Trinity Mini одной из самых доступных моделей на рынке. Это может стать серьезным аргументом для разработчиков, уставших от дорогих API крупных игроков. Особенно учитывая, что модель предлагает не просто чат, а специализированные возможности для агентов и рассуждений.
Разработчики подчеркивают, что изначально Nano и Mini рассматривались как тренировочные модели для Trinity Large, но оказались достаточно сильными для самостоятельного использования. Это демонстрирует зрелость подходов компании к обучению моделей с нуля.
