Известные лидеры требуют заморозить создание «сверхразума»

45

30.10.2025

Организация Future of Life Institute (FLI) опубликовала «Заявление о сверхинтеллекте», в котором сотни публичных фигур — от нобелевских лауреатов и тьюринг-премий до предпринимателей, политиков и артистов — призвали запретить разработку суперинтеллекта до появления научного консенсуса о безопасности и широкой общественной поддержки. Формулировка жесткая: «мы призываем к запрету на разработку суперинтеллекта… пока не будет доказано, что это делается безопасно и контролируемо».

Это не первый случай публичного давления на создателей ИИ. Еще в марте 2023 года FLI распространил открытое письмо, требуя шестимесячной паузы на обучение систем мощнее GPT-4, с призывом к правительствам ввести мораторий, если индустрия сама не остановится. Письмо подписали ведущие исследователи и бизнес-фигуры (включая Й. Бенджио, С. Рассела, Э. Маска, С. Возняка). 

Текущее заявление — шаг несколько дальше «паузы ради оценки рисков». Подписанты требуют прямого запрета на разработку систем, «значительно превосходящих людей по большинству когнитивных задач», до выполнения двух условий:

  1. Широкий научный консенсус о возможности безопасной и контролируемой разработки;
  2. Сильная общественная поддержка.

Среди заметных имен, подписавших письмо — пионеры ИИ Йошуа Бенджио и Джеффри Хинтон (обоим присуждена Премия Тьюринга), сооснователь Apple Стив Возняк, представители креативной индустрии Жозеф Гордон-Левитт и Стивен Фрай, политики и общественные деятели, герцог и герцогиня Сассекские и многие другие. Общее число поддержавших на сайте инициативы исчисляется десятками тысяч.

Организаторы апеллируют к ускорению гонки ИИ и рискам «потери контроля» при переходе к системам, превосходящим человека. 

Публикация письма сопровождается данными опроса FLI: значительная часть американцев поддерживает регулирование или запрет разработки «сверхчеловеческого» ИИ до доказуемой безопасности. Для лоббистов инициативы это аргумент в пользу жесткого регулирования и политической повестки.

Что на кону для индустрии:

  • Регуляторные сценарии. Сигнал в сторону возможных мораториев, предлицензирования и требований к доказательству управляемости/контролируемости ИИ. Для крупных игроков это означает рост издержек на комплеанс и замедление дорожных карт сверхкрупных моделей.
  • Инвестресурсы и конкуренция. Принятие жестких ограничений в США/ЕС, при отсутствии симметричных мер в иных юрисдикциях, может изменить карту конкурентоспособности. 
  • Репутация и социальный капитал. Публичная поддержка запрета — редкая коалиция «тех-академия-культура-политика», что повышает вероятность обсуждения в парламентах и предвыборных программах. Эту «широкую коалицию» отмечают деловые и мейнстрим-СМИ.

Тем не менее в индустрии и академии остаются влиятельные голоса, считающие сверхинтеллект далекой и контролируемой перспективой. Еще в 2023-м специалисты указывали, что «пауза» может быть контрпродуктивной, а вместо тотального моратория разумнее ввести риск-ориентированное регулирование, стандарты и аудит. 

Подготовлено по материалам: Statement on Superintelligence, TIME, Axios, CyberScoop.

Иллюстрация: futureoflife.org