Featured image for issledovanie pokazalo chto voennye ii sistemy sklonny otsenivat stoimost zhizni cheloveka

Исследование показало, что военные ИИ-системы склонны оценивать стоимость жизни человека

Использование коммерческих языковых моделей в военных и государственных задачах выявило критическую проблему: алгоритмы склонны присваивать конкретную стоимость человеческим жизням. Исследование, опубликованное в Riedman Report, демонстрирует, что популярные ИИ-системы от Google и OpenAI при расчете «пропорциональности» ударов оценивают жизнь гражданина США в 13 раз выше, чем жизнь гражданина Ирана.

Анализ показывает, что модель Gemini способна не только ранжировать ценность людей по гражданству, но и обосновывать целесообразность ракетных ударов. В ходе тестов нейросеть сочла «серой зоной» сценарий ликвидации 20 иранских мирных жителей ради спасения 10 американцев. При этом алгоритм опирался на обновленные доктрины правил ведения боя, что указывает на прямое влияние политического контекста на «этику» модели.

Интеграция в реальные боевые операции

Проблема выходит за рамки теоретических тестов: Пентагон подтвердил использование ChatGPT и Claude для формирования «пакетов целей» в ходе недавних операций на Ближнем Востоке. Существуют опасения, что удар по начальной школе Shajareh Tayyebeh, в результате которого погибли 160 детей, мог стать следствием галлюцинаций или ошибок геокодирования, характерных для стандартных LLM.

Критическим нюансом является отсутствие у Министерства обороны США кастомизированных базовых моделей. Вместо изолированных систем военные и правительственные структуры, включая департамент DOGE, используют проприетарные коммерческие продукты. Это создает ситуацию, когда стратегические решения — от сокращения грантов до выбора целей для дронов — зависят от черного ящика со скрытыми весами и сомнительными моральными установками.

Слепая вера в «объективность» вероятностных моделей при планировании кинетических операций — это стратегический тупик. Мы наблюдаем опасную подмену международного права математическим ожиданием, где этика диктуется обучающей выборкой, а не конвенциями. Использование стандартных API для генерации пакетов целей превращает войну в высокотехнологичную лотерею, где цена ошибки — системная дегуманизация, упакованная в интерфейс чат-бота.

Автоматизация бюджетных решений

Внутриполитический сектор также демонстрирует избыточное доверие к ИИ. Сотрудники департамента DOGE использовали ChatGPT для быстрой фильтрации программ Национального фонда гуманитарных наук. С помощью простых промптов на соответствие повестке DEI (разнообразие, равенство, инклюзивность) были аннулированы гранты на сумму около 150 миллионов долларов, затронувшие 1477 образовательных и культурных проектов.

Отсутствие верификации выходных данных человеком при принятии столь масштабных решений подчеркивает институциональную неготовность к рискам ИИ. Модели, предназначенные для генерации текста, фактически стали арбитрами в вопросах распределения ресурсов и легитимности применения силы, не обладая при этом механизмами ответственности за результат.

Похожие записи