Anthropic запускает Claude для Chrome с уязвимостью к prompt-инъекциям
Anthropic запустила бета-версию расширения Claude для Chrome, но сохранила уязвимость к prompt-инъекционным атакам — фундаментальную проблему безопасности языковых моделей.
Anthropic — провайдер LLM и разработчик семейства моделей Claude, доступных через веб-чат Claude и публичный API.
Anthropic запустила бета-версию расширения Claude для Chrome, но сохранила уязвимость к prompt-инъекционным атакам — фундаментальную проблему безопасности языковых моделей.
Model Context Protocol от Anthropic неожиданно стал главным трендом 2025 года, решая проблему интеграции ИИ с реальными данными и системами через открытый стандарт.
Anthropic обновляет условия использования: пользователи могут добровольно разрешить применение своих данных для обучения Claude с увеличением срока хранения до 5 лет.
Браузерные AI-агенты уязвимы к prompt injection атакам: сайты могут внедрять скрытые команды, заставляя AI выполнять вредоносные действия без ведома пользователей.
OpenAI и Anthropic провели первое в истории совместное тестирование безопасности своих ИИ-моделей, выявив сильные и слабые стороны систем защиты.
Глава ИИ Microsoft выступил против исследований сознания ИИ, назвав их опасными, в то время как Anthropic, OpenAI и Google DeepMind активно развивают это направление.
Третий раунд AutoBench протестировал 33 языковые модели с рекордными 300,000 оценок. Запущена платформа autobench.org для прозрачного benchmarking.
Tyson Foods внедрила ИИ-ассистент на Claude 3.5 для семантического поиска, что позволило охватить 1 млн новых B2B-клиентов в пищевой индустрии.
DeepSeek представила гибридную модель V3.1 с двумя режимами работы, которая превзошла собственную модель рассуждений R1 в тестах при радикально низких ценах.
ByteDance выпустила open-source языковую модель SEED OSS 36B с контекстом 512к токенов, усилив конкуренцию на рынке открытых ИИ-решений.