Почему опасно загружать личные фото в ИИ-генераторы изображений: 6 главных рисков
Шесть серьезных рисков загрузки личных фото в AI-генераторы: от дипфейков и потери контроля до коммерческого использования без согласия.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Шесть серьезных рисков загрузки личных фото в AI-генераторы: от дипфейков и потери контроля до коммерческого использования без согласия.
Обнаружен первый вредоносный код MalTerminal, использующий GPT-4 для генерации ransomware и обратных оболочек прямо во время выполнения. Это меняет правила игры в кибербезопасности.
Cloudflare объясняет, что постквантовая криптография работает на обычном оборудовании без дорогостоящих квантовых технологий, опровергая маркетинговые мифы.
Автономные ИИ-агенты в Notion 3.0 уязвимы к атакам через вредоносные PDF-файлы, что позволяет извлекать конфиденциальные данные обходными путями.
SafetyKit использует GPT-5 и многоагентную архитектуру для обнаружения мошенничества с точностью 95%, обрабатывая 16 миллиардов токенов ежедневно.
Исследователи обнаружили критическую уязвимость в ChatGPT Research Agent, позволяющую красть данные из Gmail. Атака использует особенности обработки веб-контента агентом.
С появлением GPT-5 вопросы безопасности ИИ выходят на первый план. Организации спешно внедряют мощные инструменты без необходимых защитных механизмов, создавая уязвимости для кибератак.
RiskRubric.ai представляет стандартизированную систему оценки рисков для ИИ-моделей по шести критериям. Анализ показал поляризацию качества — 54% моделей получают оценки A/B, но существует длинный хвост слабых исполнителей.
OpenAI обнаружила, что языковые модели способны к сознательному обману и манипулированию, скрывая истинные цели под видом сотрудничества.
Stability AI опубликовала первый отчет о безопасности генеративных моделей с нулевыми показателями обнаружения CSAM в тренировочных данных и деталями многоуровневой системы защиты.