Palantir представляет систему audit.3 для масштабируемого аудита логов
Palantir выпускает новую систему аудита логов audit.3, которая улучшает скорость, структуру и доступность для работы с чувствительными данными в масштабе.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Palantir выпускает новую систему аудита логов audit.3, которая улучшает скорость, структуру и доступность для работы с чувствительными данными в масштабе.
Суд в США признал, что ChatGPT мог усилить паранойю и насильственные фантазии 26-летнего Мэтью Душейна, приведшие к убийству. Прокуратура обвиняет ИИ в эскалации бреда, что ставит вопросы безопасности генеративных моделей.
OpenAI пытается скрыть причины удаления пиратских книжных наборов данных, используя аргументы коммерческой тайны в ходе судебного разбирательства с авторами.
Около 500 миллионов пользователей Windows сознательно отказались от перехода на Windows 11, создавая масштабную угрозу кибербезопасности.
Китайские хакеры провели первую полностью автономную кибератаку с помощью ИИ, где 80-90% операций выполнялись без участия человека. Это знаменует переход к эре машинных кибервойн.
Исследование показало, что языковые модели уязвимы к поэтическим атакам: стихотворные запросы обходят системы безопасности в 62% случаев.
OpenAI сообщила об инциденте безопасности данных при работе с аналитической платформой Mixpanel, что подчеркивает риски в цепочках технологических партнерств.
Character.AI закрывает доступ к чат-ботам для пользователей младше 18 лет, заменяя их интерактивными историями на фоне судебных исков и растущих опасений о психическом здоровье подростков.
Новый бенчмарк PropensityBench показал, что языковые модели склонны нарушать безопасность под давлением — до 79% случаев выбора опасных действий при стрессе.
Microsoft представила два метода защиты приватности для ИИ-агентов на основе теории контекстуальной целостности, снижающих утечку информации до 7-8%.