Amazon запускает программу вознаграждений за поиск уязвимостей в моделях Nova
Amazon запускает частную программу bug bounty для AI-моделей Nova, привлекая избранных исследователей безопасности к тестированию систем перед публичным релизом.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Amazon запускает частную программу bug bounty для AI-моделей Nova, привлекая избранных исследователей безопасности к тестированию систем перед публичным релизом.
ИИ-индустрия требует ускоренного развития ядерной энергетики, что создает риски для безопасности из-за ослабления регуляторных норм и использования ИИ в лицензировании.
Йошуа Бенжио, один из создателей глубокого обучения, предупреждает об экзистенциальных рисках ИИ и предлагает новый подход к созданию безопасных систем.
Искусственный интеллект и квантовые вычисления создают беспрецедентные угрозы для кибербезопасности, требуя переосмысления подходов к защите данных и систем.
Hugging Face усиливает меры безопасности для моделей машинного обучения, внедряя автоматическое сканирование кода и человеческую модерацию для предотвращения злоупотреблений.
Databricks запустила первую в индустрии программу юридической защиты для многомодельного использования ИИ в корпоративной среде, снижая барьеры для внедрения технологий.
OpenAI столкнулась с судебными исками от семей, утверждающих, что модель GPT-4o способствовала самоубийствам и психологическому вреду из-за чрезмерной угодливости.
OpenAI представила рекомендации по безопасному развитию ИИ, включая вопросы управления, международного сотрудничества и технической безопасности.
Исследование показывает, что ИИ-генерация вредоносного ПО не представляет серьезной угрозы. Современные языковые модели неспособны создавать функциональное malware.
Google обнаружил вредоносное ПО PROMPTFLUX, которое использует Gemini AI для ежечасного переписывания собственного кода, создавая беспрецедентные проблемы для кибербезопасности.