Сгенерированные LLM пароли оказались слабыми, несмотря на внешнюю сложность
Пароли от LLM выглядят сложными, но повторяются и предсказуемы. Исследование показало критически низкую реальную энтропию и реальные риски для кода и инфраструктуры.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Пароли от LLM выглядят сложными, но повторяются и предсказуемы. Исследование показало критически низкую реальную энтропию и реальные риски для кода и инфраструктуры.
Claude Code Security от Anthropic «читает» код, как исследователь: понимает потоки данных, находит логику ошибок и генерирует патчи с рейтингом. Минус ложных позитивов — многоступенчатая проверка ИИ. Уже нашёл 500+ багов в open-source, но риски: такие же инструменты помогут хакерам.
Агентные ИИ не ломаются внезапно: они дрейфуют — меняют поведение от обновлений промптов и инструментов, накапливая риски месяцами. Традиционные тесты не ловят это, нужна поведенческая диагностика для CIO и CTO.
Восемь популярных браузерных расширений с 8 млн установок тайно собирают полные диалоги пользователей с ChatGPT, Claude и другими ИИ для продажи маркетологам. Расширения обещают защиту, но сами являются инструментом слежки.
Новое исследование Phare V2 показывает, что прогресс в возможностях языковых моделей не привел к аналогичному улучшению их безопасности. Рассуждающие модели не стали устойчивее к взлому, галлюцинациям и предвзятости.
Новые браузеры с ИИ-агентами, которые могут действовать в интернете от вашего имени, сталкиваются с серьезными проблемами безопасности, включая уязвимости к скрытым командам и риск компрометации личных данных.
Сторонники теории скорого апокалипсиса от ИИ, чьи прогнозы не сбылись, не сдаются. Вместо этого они перешли от научных дискуссий к политическому лоббизму, находя поддержку у регуляторов.
Почему классические законы робототехники Азимова не работают для современных ИИ, и почему попытки создать «этичный ИИ» сталкиваются с фундаментальными противоречиями в реальном мире.
Анализ эффективности инструментов для обнаружения текста, сгенерированного ChatGPT. Рассматриваются принципы работы детекторов, их сильные и слабые стороны, а также правильные стратегии использования.
Новая техника машинного обучения позволяет находить и удалять опасные знания о психическом здоровье из языковых моделей, решая проблему вредоносных советов, которые ИИ усваивает из интернета.