PyTorch 2.8 повышает производительность LLM на процессорах Intel без сторонних фреймворков
PyTorch 2.8 представляет нативную поддержку высокопроизводительного квантованного вывода LLM на CPU Intel, конкурируя с vLLM без сторонних фреймворков.
Обзоры новых релизов, сравнения моделей, анализ возможностей и ограничений современных LLM. Следите за развитием технологий искусственного интеллекта в области обработки естественного языка.
PyTorch 2.8 представляет нативную поддержку высокопроизводительного квантованного вывода LLM на CPU Intel, конкурируя с vLLM без сторонних фреймворков.
IBM и индийский консорциум BharatGen объявили о партнерстве по созданию языковых моделей ИИ, адаптированных под лингвистические и культурные особенности Индии.
Искусственный интеллект Google Gemini 2.5 занял второе место в мировом финале ICPC по программированию, решив 10 из 12 сложнейших алгоритмических задач и обойдя 135 университетских команд.
Google Research представила метод SLED, который повышает точность языковых моделей за счет использования информации со всех слоев вместо только последнего.
Практическое руководство по эффективному тонкому настрою Llama 3.1 с использованием Unsloth и QLoRA для кастомизации языковых моделей под конкретные задачи.
Некоммерческий проект Public AI стал провайдером инференса на Hugging Face, предоставляя доступ к государственным AI-моделям через распределенную инфраструктуру.
Google увеличила производительность BigQuery для генеративного ИИ в 100 раз, обеспечивая обработку 80 млн строк за 6 часов и надежность 99.99%.
Тестирование OpenAI GPT-OSS моделей показало, что меньшая 20-миллиардная модель с низким уровнем мышления часто превосходит более крупные аналоги по соотношению цена/качество.
Hugging Face представила инструмент на базе Gradio для обнаружения водяных знаков в текстах, сгенерированных языковыми моделями.
Verisk интегрировала генеративный ИИ через Amazon Bedrock для автоматизации анализа страховых тарифов, сократив время обработки с часов до минут и высвободив 15% рабочего времени поддержки.