Гениальность и безумие часто разделяют одно и то же пространство в человеческом сознании. В случае Илья Суцкевер, создателя ChatGPT и соучредителя OpenAI, это сосуществование породило как революционные инновации, так и видения, граничащие с мистикой. Завершая работу над алгоритмами, способными имитировать человеческую речь, Суцкевер тайно спроектировал бункер для защиты ученых от возможного «апокалипсиса», который может наступить в результате внедрения ОИИ.
Показательный парадокс: сами создатели самого совершенного искусственного интеллекта настолько боятся своего творения, что готовятся к технологическому катаклизму. Квазирелигиозный термин, который он использовал, показывает, насколько размытыми стали границы между наукой и верой в мире ИИ.
Шоковое предложение: антиапокалипсисный бункер для ученых
Во время встречи с группой новых исследователей летом 2023 года Суцкевер произнес невероятную фразу: «Как только мы все окажемся в бункере…». Сбитый с толку исследователь прервал его, чтобы попросить разъяснений по поводу «бункера», и ответ оказался еще более удивительным: «Мы обязательно построим бункер, прежде чем выпустим AGI». Шутка, гипербола?
Ни один из этого. Как сообщает Карен Хао В своей книге "Империя ИИ: сны и кошмары в OpenAI Сэма Альтмана«, план должен был защитить ключевых ученых OpenAI от геополитического хаоса или жестокой конкуренции между мировыми державами, которые, как предсказывал Суцкевер, могли бы разразиться после выпуска искусственного интеллекта общего назначения (AGI). Эпизод, описанный в эссе из книги и опубликованный на веб-сайте Атлантический океан, подчеркивает экзистенциальные страхи, которые пронизывают высшие эшелоны компаний, занимающихся ИИ.
Затем с обескураживающим безразличием он добавил: «Разумеется, это будет необязательным — хотите ли вы войти в бункер или нет». Как будто он говорил о корпоративном обеде, а не об убежище от технологического апокалипсиса.
Бункер ИИ-апокалипсиса: одержимость, а не единичный случай
Упоминание антиапокалиптического бункера не было единичным случаем. Два других источника подтвердили репортеру, что Суцкевер регулярно упоминал эту структуру во внутренних обсуждениях. Один исследователь OpenAI зашел так далеко, что сказал: «Есть группа людей, среди которых и Илья, которые считают, что создание AGI приведет к некоему апокалиптическому событию. Буквально, технологическому апокалипсису».
Это квазирелигиозное видение технологического будущего показывает, насколько глубоко некоторые из самых ярких умов в области искусственного интеллекта находятся под влиянием экзистенциальных страхов относительно своих собственных творений. Согласно книге Хао, среди сотрудников Суцкевер был известен как «глубокий мыслитель и даже в некотором роде мистик», который регулярно рассуждал на духовные темы.
Парадокс OpenAI: между катастрофой и прибылью
Апокалиптические страхи Суцкевера были вполне уместны в экосистеме OpenAI. В мае 2023 года генеральный директор Сэм Альтман подписали открытое письмо, в котором ИИ описывается как потенциальный риск вымирания человечества, о чем сообщается как в книге Карен Хао, так и в нескольких отраслевых статьях.
Однако эта апокалиптическая история должна была сосуществовать с все более агрессивными коммерческими амбициями. ChatGPT становился глобальным явлением, а OpenAI быстро превращался из исследовательской лаборатории в многомиллиардного технологического гиганта. Противоречие, которое подпитывало внутреннюю напряженность, достигшую кульминации в (неудачная) попытка отстранить Альтмана от должности в ноябре 2023 года.

Внутренний перелом: палец на кнопке AGI
Напряжение между апокалиптическим и капиталистическим видением резко возросло в конце 2023 года. Суцкевер вместе с тогдашним главным техническим директором Мира Муратиорганизовал кратковременный корпоративный переворот, временно отстранив Альтмана от должности генерального директора.
В основе этого решения лежало беспокойство, что Альтман обходит внутренние протоколы безопасности и сосредоточивает в своих руках слишком большую власть. Согласно заметкам, просмотренным Хао и опубликованным исключительно в ее книге, цитируется высказывание Суцкевера: «Я не думаю, что Сэм — тот человек, который должен держать палец на кнопке AGI». Документация этих внутренних противоречий, представленная как на Атлантический океан у MIT Technology Review, предлагает ранее невиданный взгляд на кризис лидерства, потрясший OpenAI.
Метафора «палец на кнопке» особенно показательна: она вызывает в памяти сценарии времен Холодной войны, в которых ИИ играет роль ядерного оружия. Видение, которое рассматривает искусственный интеллект не как инструмент прогресса, а как потенциальную причину разрушения.
После OpenAI: миссия продолжается с безопасным суперинтеллектом
После неудавшегося «переворота» и восстановления Альтмана в должности, Суцкевер покинул OpenAI в мае 2024 года, чтобы основать Безопасный суперинтеллект (SSI) — компания, занимающаяся разработкой безопасных систем искусственного интеллекта.
В отличие от OpenAI, у SSI гораздо более узкая направленность: «Нашим первым продуктом станет безопасный ИИ, и до тех пор мы не будем делать ничего другого», — сказал Суцкевер в интервью. Компания привлекла первоначально 1 миллиард долларов, затем еще 2 миллиарда долларов, достигнув в XNUMX году отметки в XNUMX миллиарда долларов. TechCrunch оценка в 32 миллиарда долларов по состоянию на апрель 2025 года показывает, что опасения по поводу безопасности ИИ также находят отклик среди инвесторов.
Бункер как символ: паранойя или предвидение?
Предложенный Суцкевером бункер Судного дня, хотя он так и не был построен, стал ярким символом противоречий и страхов, пронизывающих индустрию ИИ. С одной стороны, это представляет собой почти религиозную паранойю, с другой — возможно, необходимую осторожность перед лицом потенциально преобразующих технологий.
Как Я написал тебе 5 лет назад: «Никогда еще мир не был на перепутье. Он может закончиться войной и задохнуться ядами, или возродиться с технологиями и этикой». Бункер Суцкевера представляет собой именно этот перекресток: страх катастрофы и надежда ее избежать. Если же учесть все более напряженную геополитическую обстановку, то технологическая конкуренция между Соединенными Штатами и Китаем теперь сравнима с новая холодная война, где основным полем битвы является ИИ.
В этом сценарии идея создания бункера для защиты разума, стоящего за искусственным интеллектом, уже не кажется глупостью, а стратегическим соображением в мире, где контроль над технологиями определяет баланс сил.
Бункер против Апокалипсиса, Ужас на передовой
История бункера Судного дня Суцкевера сталкивает нас с парадоксом новатора: те, кто раздвигает границы технологий, зачастую первыми боятся последствий. Такое двойственное отношение (энтузиазм и страх, амбиции и осторожность) характеризует передовой участок искусственного интеллекта.
Паранойя или предвидение, предложение бывшего руководителя OpenAI заставляет нас задуматься о фундаментальных вопросах: насколько мы на самом деле контролируем технологии, которые создаем? И если сами их создатели боятся последствий настолько, что подумывают об убежище в подземных бункерах, разве нам всем не следует быть более внимательными?