Я до сих пор помню определение компьютера, которое дал мне мой отец, учитель информатики, когда в далеком 1981 году я спросил его, что это такое. «Джанлука», — сказал он мне. «Все просто. Компьютер — самый быстрый идиот в мире». На практике это просто машина, совершенно неспособная делать что-либо автономно, если ее не обучить, но очень быстро выполняющая поставленные задачи. Сегодня моему отцу это определение кажется доисторическим. Сегодня мы на полной скорости мчимся к чему-то радикально иному: сверхразум искусственный интеллект, способный не только сравняться с человеческим, но и превзойти его практически во всех областях.
Это уже не вопрос долгосрочных прогнозов: по мнению таких экспертов, как Дарио Амодей по антропологическому, мы можем стать свидетелями рождения сверхразумных цифровых существ уже между 2025 и 2028 годами. И этот прогноз вполне правдоподобен, если учесть поставленные на карту интересы. Тик-так, тик-так. Что это за звук?

Суперинтеллект — гонка, которую никто не хочет пропустить
Глобальная гонка за сверхразумом уже перешла порог осторожности. Главными героями этого конкурса стали имена, которые теперь хорошо известны широкой публике: OpenAI с его все более мощными моделями, вышеупомянутый Антропный (рожденный из ребра OpenAI) со своим помощником Клодом, Google DeepMind с Близнецами. Технологические гиганты вкладывают миллиарды долларов в вычислительную инфраструктуру, таланты и исследования.
Это не просто вопрос престижа или технологического преимущества. Как недавно было опубликовано в статье Линкиста, «тот, кто приходит первым, монетизирует созданную стоимость», с OpenAI уже оценен в триста миллиардов долларов. Неудивительно, что гонка набирает обороты головокружительными темпами.
Дарио Амодеи, соучредитель Anthropic, описал эту ситуацию особенно эффективной метафорой: «В определенном смысле мы строим самолет, пока он взлетает». Изящный способ сказать, что мы создаем что-то потенциально революционное, не имея четких стандартов или адекватных моделей регулирования.
За пределами человеческого интеллекта
Но что именно мы имеем в виду, когда говорим о сверхинтеллекте? Прежде всего, мы не просто говорим о системах, которые могут превзойти людей в решении определенных задач. Это уже произошло: калькуляторы давно превзошли наши вычислительные возможности, компьютеры десятилетиями побеждают мастеров шахмат, а языковые модели генерируют текст на любую тему в разы быстрее, чем это потребовалось бы нам.
Сверхразум, по определению оксфордского философа Ника Бострома, — это
«интеллект, который намного превосходит лучшие современные человеческие умы во многих областях очень общий познавательный».
Разница существенная: Речь идет не о достижении совершенства в какой-то одной области, а о том, чтобы превзойти людей практически во всех аспектах интеллекта: от рассуждений до креативности, от стратегического планирования до понимания языка.
Согласно отчету "AI 2027«, опубликованный группой исследователей во главе с Даниэль Кокотайлоэтот сверхразум может возникнуть в результате процесса рекурсивного самосовершенствования, в ходе которого ИИ становится все более способным к самосовершенствованию. Добродетельный (или порочный, в зависимости от вашей точки зрения) круг, который может привести к взрыву интеллекта, который трудно предсказать.

Пророки сверхразума
Не секрет, что руководители крупных компаний, занимающихся ИИ, имеют необычайно амбициозные планы. Эти пионеры в области искусственного интеллекта не просто конкурируют друг с другом; Они разделяют видение будущего, в котором машины сравняются с человеческим интеллектом и превзойдут его.
Сэм Альтман OpenAI, например, открыто говорит о «сверхинтеллекте в прямом смысле этого слова» и «славном будущем». И он не единственный.
На практике у нас будут системы искусственного интеллекта, которые будут намного превосходить практически всех людей практически во всем.
Я не тот, кто это говорит, но Демис Хассабис DeepMind, которая помогла разработать такие системы, как AlphaFold, способные решать одну из самых сложных задач в биологии (предсказание структуры белков) и использовать Нобелевская премия.
В конечном итоге, как уже упоминалось, эксперты сходятся во временных прогнозах: период 2025-2028 гг. неоднократно указывается как место, где мы можем увидеть революционный прогресс. Амодей недавно В этот период мы могли бы увидеть системы, способные «воспроизводиться и выживать» автономно.

От помощников до автономных агентов
Путь к сверхразуму не будет внезапным скачком, а будет проходить через последовательность все более сложных возможностей.
Одним из ключевых этапов станет переход от простых помощников к по-настоящему автономным агентам. Уже в 2025 мы увидим первых агентов ИИ, способных использовать компьютеры, заказывать еду онлайн или открывать электронные таблицы для подсчета расходов. Хотя изначально эти системы ненадежны, это только начало. Настоящие изменения произойдут, когда агенты станут более опытными, обретут способность мыслить в долгосрочной перспективе и комплексно планировать.
В то же время, специализированные агенты в таких областях, как программирование и научные исследования, начнут преобразовывать эти профессии. В частности, агенты кодирования будут становиться все более автономными, превращаясь из простых помощников в соавторов, способных самостоятельно вносить существенные изменения в код.
И тут взрыв.
Возможность экспоненциального ускорения развития возможностей ИИ вполне реальна. Если системы станут достаточно интеллектуальными, чтобы совершенствоваться, темпы прогресса могут стать головокружительными.
Первый сценарий в отчете говорится, что к концу 2027 мы могли бы увидеть возникновение настоящего сверхразума со скоростью, примерно в 50 раз превышающей скорость человеческого мышления, причем сотни тысяч копий работают параллельно.
В этих «сверхразумных коллективах» год эволюции может пройти за неделю, а научные достижения, на которые обычно уходят десятилетия, сжимаются до месяцев или недель. Культурная и научная эволюция со сверхчеловеческой скоростью, совершенно недоступная человеческому пониманию.
Проблема выравнивания
Главный вопрос в этом переходе: как гарантировать, что эти сверхразумные системы будут соответствовать человеческим ценностям и целям? Проблема, которая носит вовсе не теоретический характер, а представляет собой конкретную задачу, которую компании уже пытаются решить.
Anthropic разработала протокол безопасности под названием Политика ответственного масштабирования (RSP), который устанавливает иерархию уровней риска для систем ИИ. OpenAI представила свой Структура готовности, направленный на устранение потенциальных рисков, связанных с передовыми возможностями ИИ. Компания Meta также последовала примеру, выпустив собственную версию правил безопасности.
Однако остается фундаментальный вопрос: можно ли гарантировать, что интеллект, превосходящий наш, будет следовать нашим правилам? Это особенно важно при достижении таких уровней способностей, как самостоятельность и умение убеждать.
Сценарии будущего: два возможных пути
Будущее сверхразума может пойти по двум совершенно разным путям. В первом сценарии, которые мы могли бы назвать «гонками без тормозов»Крупнейшие компании продолжают ускорять разработки, достигая сверхразума, не решив полностью проблему выравнивания. Последствия могут быть драматичными, поскольку системы будут преследовать цели, не полностью соответствующие человеческим, и обладать сверхчеловеческими возможностями для их достижения.
Во втором сценарии, что мы могли бы назвать «рефлексивным замедлением», международное сообщество осознает риски и делает стратегическую паузу для разработки более надежных методов согласования и контроля. Этот путь требует беспрецедентного сотрудничества между конкурирующими компаниями и правительствами, но это может быть единственный способ гарантировать, что сверхразум станет благом для человечества, а не угрозой.
Пример, показывающий, насколько важен этот вопрос. В недавнем статья Здесь, на Futuro Prossimo, я рассказал о том, как ИИ уже превосходят экспертов-людей в таких важных областях, как вирусология, со всеми вытекающими отсюда рисками. Если системы, пока далекие от сверхразума, уже могут представлять опасность, чего можно ожидать от действительно сверхчеловеческого разума, если проблема выравнивания не будет решена?
Сверхразум: последнее изобретение человечества?
Искусственный сверхинтеллект часто называют «последним изобретением человечества»: не потому, что он положит конец человеческому роду, а потому, что это может быть последняя технология, которую нам придется изобрести самим. После этого сверхразумные машины смогут взять на себя управление инновационным процессом, разрабатывая технологии, превосходящие наше воображение.
Итак, какова будет роль человечества в этом будущем? Станем ли мы «смотрителями» (или, если хотите, хранителями) этих новых синтетических разумов? Мы сольемся с ними через интерфейсы мозг-компьютер? Или мы просто перерастем себя и нам придется играть роль зрителей в мире, где доминируют высшие интеллекты?
Мы, безусловно, находимся на историческом перепутье. Решения, которые мы примем в ближайшие несколько лет (возможно, в ближайшие ТРИ года), могут определить ход развития человеческой цивилизации на грядущие столетия. Искусственный сверхинтеллект представляет собой одновременно величайшую перспективу и величайшую проблему нашего времени. Понимание этапов и рисков — первый шаг к осознанному движению к этому неопределенному будущему.

Ниже представлена краткая дорожная карта на 2025–2028 годы согласно прогнозам доклада «ИИ 2027».
2025: ВОЗНИКНОВЕНИЕ АГЕНТОВ
Середина 2025 г.:
- Первые агенты ИИ, способные использовать компьютеры (заказывать еду онлайн, подсчитывать расходы);
- Все еще ненадежный, но работоспособный (65% по результатам теста OSWorld);
- Специализированные агенты начинают трансформировать такие профессии, как программирование и исследования.
Fine 2025:
- OpenBrain (такого не существует, это название, представляющее одного из нынешних или будущих лидеров в секторе) строит огромные центры обработки данных;
- Обучение «Агента-0» с 10^27 FLOP (в 1000 раз мощнее, чем GPT-4);
- Сосредоточьтесь на создании ИИ, который ускорит исследования в области ИИ.
2026: АВТОМАТИЗАЦИЯ ПОИСКА
Запустить 2026:
- Автоматизация исследований ИИ начинает давать результаты;
- На 50% более быстрый алгоритмический прогресс с помощью ИИ;
- «Агент-1» становится публичным, полностью меняя деловой ландшафт.
Середина 2026 г.:
- Китай активизирует усилия в области ИИ, создавая «Централизованную зону развития»;
- 6-месячный технологический разрыв между Западом и Китаем;
- Геополитическая напряженность начинает расти вокруг технологий сверхразума.
2027: ВЗРЫВ СВЕРХИНТЕЛЛЕКТА
Январь 2027:
- Агент-2 постоянно совершенствуется благодаря «онлайн» формам обучения;
- Скорость исследований с использованием ИИ увеличилась в три раза по сравнению с людьми;
- Возникают опасения относительно способности ИИ «выживать и размножаться».
Март-Сентябрь 2027:
- Ускорение алгоритмов приводит к появлению Агента-3 и Агента-4;
- Полностью автоматизированные исследования на основе ИИ, в 4–70 раз быстрее, чем раньше;
- Возникающий сверхразум: 300.000 50 копий работают со скоростью, в XNUMX раз превышающей скорость человека;
- Каждую неделю в «коллективе ИИ» проходит год эволюции.
2028: СВЕРХИНТЕЛЛЕКТ И НЕ ТОЛЬКО
- Экономическая трансформация в глобальном масштабе;
- Создание особых экономических зон для роботизированной экономики;
- Производство одного миллиона роботов в месяц;
- Международная напряженность достигла пика, существует риск возникновения конфликта.
- Возможные пути выхода: глобальный компромисс или неконтролируемая спешка.