Большая часть интернет-трафика Cloudflare перешла на пост-квантовое шифрование
Cloudflare сообщает о переходе большинства интернет-трафика на пост-квантовое шифрование. Анализ угрозы квантовых компьютеров и прогресса в квантовых вычислениях.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Cloudflare сообщает о переходе большинства интернет-трафика на пост-квантовое шифрование. Анализ угрозы квантовых компьютеров и прогресса в квантовых вычислениях.
Cloudflare представляет Merkle Tree Certificates — революционный подход к пост-квантовой безопасности, который решает проблему производительности TLS при использовании новых криптографических алгоритмов.
Генеративный ИИ позволяет создавать убедительные поддельные чеки для служебных расходов, ставя под угрозу системы корпоративного контроля и увеличивая риски мошенничества.
Адвокат предупредил, что ChatGPT не предоставляет адвокатскую тайну, и все ваши юридические вопросы могут быть использованы против вас в суде.
OpenAI раскрыла статистику: более миллиона пользователей еженедельно обсуждают с ChatGPT суицидальные мысли. Компания улучшила реакции модели на 65% при участии 170 экспертов.
Исследователи обнаружили метод обхода систем безопасности языковых моделей через манипуляцию проекционными матрицами, что ставит под вопрос эффективность текущих подходов к защите ИИ.
Агентные браузеры вроде Comet и Claude демонстрируют фундаментальные уязвимости интернета, созданного для людей. Скрытые инструкции могут управлять ИИ-агентами без ведома пользователя.
Cloudflare предотвратил крупную атаку на npm-пакеты с помощью машинного обучения, анализирующего 3.5 млрд скриптов в день. Модель обнаружила все 18 вредоносных пакетов без предварительного обучения на подобных атаках.
Cloudflare совместно с Visa и Mastercard разрабатывает систему безопасности для автоматической коммерции, где ИИ-агенты совершают покупки от имени пользователей с криптографической аутентификацией.
Исследование показывает, что минимальное количество вредоносных данных может создавать уязвимости в языковых моделях, опровергая традиционные представления о безопасности ИИ.