Featured image for protivniki ii ne sdayutsya nesmotrya na to chto ih prognozy kontsa sveta provalilis

Противники ИИ не сдаются, несмотря на то, что их прогнозы конца света провалились

Менее года назад мир технологий сотрясали апокалиптические прогнозы о скором появлении сверхразума, способного уничтожить человечество. Сегодня, когда шумиха улеглась, а обещанные катастрофы не случились, выясняется, что самые громкие «пророки конца света» не только не раскаялись, но и удвоили свои усилия. Их движение не просто живо — оно находит новых сторонников среди политиков и инвесторов, несмотря на очевидный провал в предсказаниях.

От паники к платформе: как катастрофизм стал бизнес-моделью

В мае 2023 года заявление об «снижении риска вымирания от ИИ» подписали сотни экспертов, включая глав OpenAI, Google DeepMind и Anthropic. Этот манифест, написанный в духе панического ужаса, задал тон для всей последующей дискуссии. Сторонники идеи «выравнивания» (alignment) — направления, занимающегося контролем над сверхразумными системами — получили огромную трибуну и финансирование. Их аргумент был прост и страшен: если мы не решим проблему контроля сейчас, через несколько лет будет поздно.

Однако год спустя стало ясно, что предсказания о взрывном росте возможностей ИИ были сильно преувеличены. Современные модели, включая GPT-4, сталкиваются с фундаментальными ограничениями: они не способны к подлинному планированию, не понимают причинно-следственных связей и требуют колоссальных вычислительных ресурсов для скромного прогресса. Вместо экспоненциального роста индустрия столкнулась с «законом убывающей отдачи» от масштабирования данных и параметров.

Движение, построенное на идее неизбежного и быстрого технологического скачка, оказалось не готово к куда более медленному и сложному реальному прогрессу. Их риторика была настолько привязана к идее неминуемой катастрофы, что теперь они вынуждены либо признать ошибку, либо искать новые аргументы для поддержания страха. Пока что они выбирают второе.

Новая стратегия: от науки к лоббизму

Поскольку научные прогнозы не сбылись, акцент сместился с исследований на политическое влияние. Организации вроде Center for AI Safety и Anthropic активно лоббируют законодательные инициативы, направленные на строгое регулирование разработки мощных ИИ-систем. Их цель — закрепить в законе принцип «превентивной осторожности», который по сути требует доказывать безопасность системы до её выпуска — стандарт, практически невыполнимый для любой инновационной технологии.

Этот подход находит отклик у части регуляторов, напуганных технической сложностью темы и желающих перестраховаться. Однако он вызывает резкую критику со стороны многих исследователей, которые видят в этом попытку замедлить прогресс конкурентов под благовидным предлогом. Особенно показателен случай с попыткой ввести мораторий на обучение моделей мощнее GPT-4 — инициатива, которую поддержали некоторые «эсхатологи», но которая была отвергнута как нереалистичная основным научным сообществом.

  • Смена риторики: Если раньше говорили о конкретных сроках (5-10 лет до сверхразума), то теперь говорят о «неопределённых, но существующих рисках».
  • Политизация: Фокус сместился с технических решений на создание нормативных барьеров.
  • Финансирование: Несмотря на спорность прогнозов, поток денег от филантропов и инвесторов, опасающихся экзистенциальных рисков, не иссякает.

Разлом в сообществе: скептики против катастрофистов

Внутри самого AI-сообщества нарастает раскол. С одной стороны — «катастрофисты», убеждённые в необходимости тотального контроля и замедления. С другой — «ускоренцы» (accelerationists), считающие, что ИИ — это величайший шанс для человечества решить глобальные проблемы, и что любые искусственные ограничения лишь отдалят этот момент. Между ними — большинство практикующих инженеров и исследователей, которые видят в текущих моделях мощный, но ограниченный инструмент, требующий разумного, а не панического регулирования.

Проблема в том, что дискуссия всё чаще уходит из плоскости фактов в плоскость идеологии. Аргументы о «непознаваемости будущего сверхразума» по определению нельзя ни доказать, ни опровергнуть, что делает диалог бесплодным. Вместо обсуждения реальных проблем сегодняшнего ИИ — смещений в данных, энергопотребления, концентрации власти у корпораций — общественное внимание захватывают спекуляции о гипотетических угрозах завтрашнего дня.

Самая большая опасность этой истории — не в том, что кто-то ошибается в прогнозах. Ошибаются все. Опасность в том, что группа людей, поставившая на конец света, теперь обладает влиянием, деньгами и доступом к регуляторам. Они могут не остановить апокалипсис, но вполне способны затормозить полезные инновации в медицине, науке и образовании, создав регуляторный кошмар вокруг всего, что пахнет «продвинутым ИИ». Их неугасающий энтузиазм — это уже не научная гипотеза, а политический проект.

Итог предсказуем: пока реальные системы сталкиваются с прозаическими проблемами надёжности и стоимости, виртуальные баталии о судьбе человечества будут продолжаться. И те, кто громче всех кричал о конце, окажутся последними, кто признает, что мир, как и прежде, продолжает вращаться.

По материалам MIT Technology Review.

Похожие записи