Представлена полнофункциональная языковая модель GuppyLM на 9 млн параметров и 130 строк кода
Проект компактной языковой модели на 9 миллионов параметров доказывает, что для понимания работы трансформеров не нужны миллиардные бюджеты.
Проект компактной языковой модели на 9 миллионов параметров доказывает, что для понимания работы трансформеров не нужны миллиардные бюджеты.
Библиотека NeuralOperator, реализующая нейронные операторы для работы с дифференциальными уравнениями, официально вошла в экосистему PyTorch. Это делает передовые методы моделирования физических процессов доступными для широкого круга разработчиков.
AMD и Meta* достигли 96% эффективности масштабирования при обучении MoE-моделей на 1024 GPU с помощью TorchTitan и Primus-Turbo.
PyTorch выпустила OpenReg — симулятор акселераторов для тестирования пользовательского аппаратного обеспечения с использованием механизма PrivateUse1 DispatchKey.
Глубокий анализ оптимизатора Adam — фундаментального алгоритма для обучения нейронных сетей, его технических особенностей и практического применения в современных ML-фреймворках.
PyTorch представляет фреймворк разреженного вывода для LLM, обещающий ускорение в 2-6 раз. Технология использует кэширование весов и новые методы порогового отсечения для современных моделей.
PyTorch представил Helion — высокоуровневый DSL для создания оптимизированных ядер ML, который компилируется в код Triton и автоматически настраивает производительность для разных аппаратных архитектур.
PyTorch представил torchcomms — новый API для распределенных вычислений, способный масштабироваться на сотни тысяч GPU. Включает бэкенд NCCLX, уже используемый Meta для обучения Llama3 и Llama4.
PyTorch и Lightning AI интегрируют фреймворк Monarch для упрощения распределенного обучения ML-моделей, предлагая интерактивную разработку прямо из блокнотов.
Распределенный фреймворк Ray официально присоединился к PyTorch Foundation, создавая единый стек технологий для масштабирования AI-приложений от обучения до инференса.