Google представила автономных агентов Deep Research для глубокой автоматизации поиска
Корпорация Google официально вывела на рынок два новых автономных ИИ-агента — Deep Research и Deep Research Max, построенных на базе новейшей модели Gemini 3.1 Pro. Как сообщает издание The Decoder, инструменты ориентированы на разработчиков и аналитиков, которым необходимо автоматизировать многоступенчатый сбор данных с последующим синтезом отчетов.
Новинки уже доступны в режиме публичного превью через платные уровни Gemini API. Главное отличие этих агентов от привычных чат-ботов заключается в их способности самостоятельно планировать поисковые сессии, запрашивать информацию из открытых и закрытых источников, а также критически оценивать найденное без постоянного участия человека.
Две стратегии: мгновенная реакция против вдумчивого анализа
Разработчики разделили функциональность на два направления, исходя из типичных сценариев использования вычислительных ресурсов. Стандартная версия Deep Research призвана заменить декабрьские превью-версии, предлагая более низкую задержку при сохранении высокого качества ответов. Этот вариант идеален для интеграции в диалоговые интерфейсы, где пользователь ждет результат в течение нескольких секунд или пары минут.
Напротив, Deep Research Max работает по принципу «асинхронной основательности». Этот агент задействует увеличенное время вычислений (test-time compute) для глубокого размышления и итеративного поиска. Такая модель поведения напоминает работу дотошного младшего аналитика, который за ночь может подготовить полноценный отчет по проверке контрагента (due diligence), используя десятки источников.
Google приводит данные собственных тестов, согласно которым версия Max значительно превосходит предшественников в задачах на поиск и рассуждение. Впрочем, при сравнении с конкурентами — GPT-5.4 от OpenAI и Opus 4.6 от Anthropic — возникают вопросы к методологии. Различия в результатах часто зависят от того, тестировалась ли «голая» модель через API или в составе готового программного решения, что заставляет относиться к триумфальным графикам с долей здорового скепсиса.
Технологический прорыв в автономности очевиден, однако реальная ценность инструмента будет ограничена стоимостью токенов при длинных итерациях поиска. Это не магия, а дорогостоящий перебор вариантов, который пока еще требует взрослого присмотра.
Интеграция с корпоративными данными через MCP
Одной из наиболее значимых технических деталей стал переход на поддержку Model Context Protocol (MCP). Это открытый стандарт, который позволяет ИИ-агентам бесшовно подключаться к сторонним базам данных и специализированным фидам, например, финансовым терминалам или внутренним репозиториям компании. Таким образом, инструмент перестает быть просто «умным поисковиком по интернету» и превращается в полноценный узел корпоративной инфраструктуры.
Помимо текстовой аналитики, агенты научились визуализировать данные. Впервые в рамках Gemini API реализована генерация нативных графиков и инфографики в форматах HTML или Nano Banana. Это упрощает восприятие сложных массивов информации, избавляя пользователя от необходимости вручную переносить цифры в таблицы или презентации.
- Совместное планирование: пользователь может просмотреть и скорректировать план поиска до того, как агент начнет тратить бюджет на запросы.
- Мультимодальность: поддержка анализа PDF-файлов, CSV-таблиц, изображений, аудио и видеоматериалов в одном цикле исследования.
- Приватность: возможность полностью отключить доступ к веб-поиску, ограничив агента только доверенными локальными данными.
Внедрение этих инструментов в экосистему Google Cloud и Interactions API намечено на ближайшее время. По сути, Google пытается превратить сложный процесс кабинетного исследования в предсказуемую функцию вызова программного интерфейса, что может существенно изменить повседневную рутину аналитических отделов в крупных компаниях.
