Как защитить корпоративные данные при использовании ИИ
Как защитить данные при использовании ИИ.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Как защитить данные при использовании ИИ.
Cloudflare добавляет инструменты контроля AI-краулеров в Project Galileo, помогая журналистам защищать контент от скрейпинга и получать справедливую компенсацию за использование их материалов AI-компаниями.
Калифорнийский сенатор Скотт Винер представляет законопроект SB 53, обязывающий крупные tech-компании публиковать отчеты о безопасности ИИ. В отличие от предыдущей инициативы, новый документ получил поддержку индустрии.
Малайзия в своем оборонном документе выделила три ключевые угрозы ИИ: терроризм, морское пиратство и автономные системы.
Британское правительство с помощью ИИ-инструмента вернуло 500 млн фунтов от мошенников, включая 186 млн от COVID-афер. Технологию планируют лицензировать другим странам.
AWS интегрирует токенизацию данных с защитными механизмами Bedrock Guardrails для безопасной обработки конфиденциальной информации языковыми моделями.
Исследователи обнаружили уязвимость в ChatGPT Deep Research, позволяющую красть данные из Gmail через скрытые HTML-инструкции в письмах. Атака обходила защитные механизмы и работала в облаке OpenAI.
Notion выпустил срочное обновление безопасности для AI-агентов после обнаружения уязвимости, позволявшей извлекать данные через вредоносные PDF. Усилены системы обнаружения инъекций и добавлен контроль веб-доступа.
LinkedIn с 3 ноября автоматически делится данными пользователей с Microsoft для обучения ИИ. В статье — какие данные используются, как отказаться и какие меры защиты предпринять.
DeepMind опубликовала третью версию фреймворка безопасности для передовых ИИ-моделей, добавив защиту от вредоносного манипулирования и уточнив процессы оценки рисков.