OpenAI представила Codex Security — инструмент для поиска уязвимостей в коде
OpenAI представила Codex Security — агентную систему для анализа безопасности кода, способную автоматически проверять уязвимости в изолированных средах.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
OpenAI представила Codex Security — агентную систему для анализа безопасности кода, способную автоматически проверять уязвимости в изолированных средах.
Масштабная кампания затронула 900 тысяч пользователей и 20 тысяч организаций. Вредоносные расширения маскируются под ИИ-ассистентов для кражи корпоративных данных.
Компании сталкиваются с новым риском — «тихими сбоями» ИИ, когда микроскопические ошибки незаметно накапливаются и приводят к финансовым потерям. Проблема связана с растущей сложностью моделей и потерей управляемости.
Отчёт OpenAI показал, как LLM используются для автоматизации мошенничества — от романтических схем до политических кампаний. ИИ ускоряет производство убедительного контента, превращая социальную инженерию в масштабируемую индустрию.
Пароли от LLM выглядят сложными, но повторяются и предсказуемы. Исследование показало критически низкую реальную энтропию и реальные риски для кода и инфраструктуры.
Claude Code Security от Anthropic «читает» код, как исследователь: понимает потоки данных, находит логику ошибок и генерирует патчи с рейтингом. Минус ложных позитивов — многоступенчатая проверка ИИ. Уже нашёл 500+ багов в open-source, но риски: такие же инструменты помогут хакерам.
Агентные ИИ не ломаются внезапно: они дрейфуют — меняют поведение от обновлений промптов и инструментов, накапливая риски месяцами. Традиционные тесты не ловят это, нужна поведенческая диагностика для CIO и CTO.
Восемь популярных браузерных расширений с 8 млн установок тайно собирают полные диалоги пользователей с ChatGPT, Claude и другими ИИ для продажи маркетологам. Расширения обещают защиту, но сами являются инструментом слежки.
Новое исследование Phare V2 показывает, что прогресс в возможностях языковых моделей не привел к аналогичному улучшению их безопасности. Рассуждающие модели не стали устойчивее к взлому, галлюцинациям и предвзятости.
Новые браузеры с ИИ-агентами, которые могут действовать в интернете от вашего имени, сталкиваются с серьезными проблемами безопасности, включая уязвимости к скрытым командам и риск компрометации личных данных.