Cloudflare учит ИИ-агента объяснять блокировку фишинговых писем
Cloudflare запускает ИИ-агента для объяснения причин блокировки email-угроз, решая проблему чёрного ящика в системах безопасности.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Cloudflare запускает ИИ-агента для объяснения причин блокировки email-угроз, решая проблему чёрного ящика в системах безопасности.
Cloudflare запускает систему подписанных агентов с криптографической верификацией для идентификации трафика от агентов ИИ, действующих от имени пользователей.
Databricks представила унифицированный подход к защите от утечки данных с 19 практическими контролями для AWS, Azure и GCP, основанный на трех фундаментальных принципах безопасности.
Браузерные AI-агенты уязвимы к prompt injection атакам: сайты могут внедрять скрытые команды, заставляя AI выполнять вредоносные действия без ведома пользователей.
Полиция Ноттингемшира тестирует робособаку с ИИ-аналитикой оружия и лидаром для 3D-карт. Устройство предназначено для разведки в опасных ситуациях без риска для сотрудников.
OpenAI и Anthropic провели первое в истории совместное тестирование безопасности своих ИИ-моделей, выявив сильные и слабые стороны систем защиты.
Почему запрет ИИ-компаньонов отражает культурную панику, а не решение реальных проблем эмоционального дефицита в современном обществе.
Cloudflare анонсировала MCP Server Portals — централизованный шлюз для безопасного подключения языковых моделей к корпоративным системам через Model Context Protocol.
Cloudflare анонсировала новые функции безопасности для генеративного ИИ в своей SASE-платформе, включая мониторинг использования AI и защиту от утечек данных.
Cloudflare интегрирует Llama Guard в свой Firewall for AI для защиты языковых моделей от вредоносных промптов. Решение работает на сетевом уровне и поддерживает любые LLM.