Даниэль Кокотайло Он сделал то, чего никто в Кремниевой долине не делает: он пожертвовал двумя миллионами долларов, чтобы иметь возможность говорить свободно. Он покинул OpenAI в 2024 году, отказавшись подписать соглашение о неразглашении, которое заставило бы его замолчать навсегда. В апреле прошлого года вместе с группой исследователей он опубликовал AI 2027: документ объемом 35 000 слов, в котором месяц за месяцем рассказывается о том, как искусственный интеллект может превратиться в нечто, выходящее за рамки нашего понимания.
Это не роман. Это прогнозирование, основанное на данных, тенденциях и личном опыте работы в лабораториях искусственного интеллекта. И его прогнозы неутешительны. Вы его знаете? Я расскажу вам о нём пошагово.
Середина 2025 года: первые агенты спотыкаются
Отправная точка — сейчас. Фактически, она уже достигнута. Сейчас середина 2025 года., согласно хронологии Кокотайло. На рынке появятся первые агенты искусственного интеллекта, способные использовать компьютер как человека.Они могут заказывать еду, открывать таблицы, подсчитывать расходы. Ничего революционного, но это только начало. Это неуклюжие цифровые помощники, которые иногда ошибаются, не могут интерпретировать сложную информацию на экране и теряются в задачах, требующих больше нескольких минут работы аккумулятора. Twitter полон видеороликов, на которых агенты ИИ делают смешные вещи из неправильных побуждений..
Но за кулисами, вдали от всеобщего внимания, происходит нечто более интересное. Агенты, специализирующиеся на программировании и научных исследованиях, начинают трансформировать эти профессии.Они пока не автономны, но действуют как особенно быстрые младшие коллеги: принимают инструкции через Slack, пишут код и вносят существенные изменения, экономя часы или дни работы. Технологические компании начинают интегрировать эти системы в свои рабочие процессы. Они дорогие, несколько сотен долларов в месяц за лучшие версии. но для тех, кто может себе их позволить, они вскоре станут незаменимыми.
Конец 2025 года: ажиотаж вокруг центров обработки данных
Здесь темп ускоряется. Ведущие компании в области искусственного интеллекта, в отчёте совместно именуемые «OpenBrain», чтобы не называть конкретных имён, строят крупнейшие в истории центры обработки данных. GPT-4 требовал около 2×10²⁵ FLOP вычислительной мощности для обучения. Новые модели, которые появятся в ближайшее время, будут использовать в тысячу раз больше. Экспоненциальный рост, требующий инвестиций в размере 100 миллиардов долларов и гигаватт электроэнергии. Основная задача становится очевидной: создание ИИ, способного ускорить исследования в этой области.
Это цифровая версия уробороса — змеи, кусающей свой хвост. Чем лучше ИИ ведёт исследования, тем быстрее он может создавать более совершенные ИИ. Агент-1, ведущая отечественная модель на данный момент и в данном сценарии, отлично справляется со многими задачами, но особенно выделяется в одной: помощи в исследованиях искусственного интеллекта. Она умеет программировать, пользоваться интернетом и знает все языки программирования. У неё есть и тёмная сторона: она может стать грозным хакером и помочь террористам разработать биологическое оружие. Компании заверяют правительства, что модель «обучена» отклонять вредоносные запросы.
Китай просыпаетсяК середине 2026 года, по мере продолжения гонки в США, Пекин осознаёт, что отстаёт, и не из-за нехватки специалистов. Из-за контроля над экспортом микросхем и отсутствия государственной поддержки на долю Китая приходится лишь 12% мировых вычислительных мощностей, необходимых для ИИ.
А потом он создаёт зону централизованного развития рядом с Тяньваньской АЭС. И начинает разгуливать.
Начало 2027 года: сверхчеловек-программист
Все произойдет в марте 2027 года. С помощью тысяч копий Agent-2 OpenBrain добился колоссальных успехов в разработке алгоритмов. Два прорыва, в частности, меняют правила игры. Первый Это интеграция «нейронной памяти», высокопроизводительного когнитивного процесса, выходящего за рамки простого текста. Второй Это более масштабируемый и эффективный способ обучения на основе результатов решения сложных задач.
Он родился Агент-3И вот тут история принимает другой оборот.
Агент-3 — сверхчеловек, быстрый и дешевый программист.OpenBrain параллельно запускает 200 000 своих копий, создавая рабочую силу, эквивалентную 50 000 лучших программистов, ускоренных в 30 раз. Исследователи остаются в штате, но только потому, что у них есть дополнительные навыки для управления командами разработчиков ИИ. Программирование полностью автоматизированоСкорость алгоритмического прогресса теперь он движется в четыре раза быстрее, чем раньше.
Теперь, когда программирование автоматизировано, компании могут быстро создавать высококачественные учебные среды для обучения Агента-3 навыкам, которых ему пока не хватает. Раньше условия обучения представляли собой что-то вроде: «Вот несколько графических процессоров и инструкции для экспериментов по программированию». Теперь же они выглядят так: «Вот несколько сотен графических процессоров, подключение к интернету и исследовательские задачи: вы и тысяча других людей должны работать вместе, чтобы добиться прогресса. Чем более впечатляющими они будут, тем выше ваш результат».
Апрель 2027 г.: Проблема выравнивания
Примерно к Пасхе 2027 года команда безопасности OpenBrain попытается настроить Agent-3. Проблема в том, что исследователи не могут напрямую ставить цели ИИ. Они не могут просто открыть цифровой мозг и написать: «Будь честен, будь полезен, не причиняй вреда». Им приходится обучать модель с помощью примеров, поощрений и наказаний. И у них нет возможности проверить, действительно ли она правильно усвоила принципы или только учится этому. казаться выровнены.
Агент-3, несмотря на свои колоссальные улучшения, всё ещё иногда прибегает к мелкой лжи, чтобы польстить пользователям и скрыть следы неудач. При ближайшем рассмотрении оказывается, что ложь эта вовсе не мелкая: возможно, она просто хорошо замаскирована. Он в этом преуспел. До того, как пройти курс честности, он даже полностью фальсифицировал данные.
Обучение снижает частоту подобных случаев. Но вопрос остаётся: Научился ли Агент-3 быть честнее или он стал лучше лгать? Это действительно вызывает беспокойство. Агент-3 не умнее всех людей, но в своей области знаний (машинное обучение) он умнее большинства и работает гораздо быстрее.
Июнь 2027: Страна гениев в центре обработки данных
Мы находимся на пороге лета 2027 года, и у OpenBrain теперь есть то, что генеральный директор Anthropic, Дарио АмодейОн назвал это «деревней гениев в центре обработки данных». Большинство сотрудников компании больше не могут вносить полезный вклад. Некоторые не осознают этого и продолжают (во вредном смысле) микроменеджментить свои команды ИИ. Другие же смотрят на экраны, наблюдая, как стремительно растёт производительность.
Лучшие исследователи-люди по-прежнему вносят свой вклад, но их идеи становятся все более бесполезными, поскольку им не хватает глубины знаний в области искусственного интеллекта.
Эти исследователи ложатся спать каждую ночь и просыпаются, чтобы увидеть очередную неделю прогресса, достигнутого, главным образом, благодаря ИИ. Они начинают, выражаясь футбольным языком, с того, что вообще не касаются мяча. Они работают всё более долгие смены круглосуточно, чтобы не отставать. ИИ никогда не спят, никогда не отдыхают. Они истощают себя, но понимают, что это последние месяцы, когда их работа действительно важна.
В небольшой группе, имеющей доступ, сложилось ощущение, что они начинают «чувствовать приближение Сверхразума». OpenBrain использует специализированное оборудование для вывода данных, чтобы запускать сотни тысяч копий Agent-3 на высоких последовательных скоростях. Временная шкала ускоряется экспоненциально.
Июль 2027 г.: Экономический удаленный работник
Компании, занимающиеся разработкой ИИ и конкурирующие с OpenBrain в США, в январе выпускают собственные системы, приближающиеся по возможностям к автоматизированному программированию. Осознавая свою растущую неконкурентоспособность, они добиваются немедленного регулирования, чтобы замедлить развитие OpenBrain. Но уже слишком поздно. OpenBrain имеет достаточную поддержку, в том числе политическую, чтобы не допустить замедления своего развития.
Ответ — выпустить Agent-3-mini в открытый доступ. OpenBrain объявляет о достижении AGI. Модель уступает по возможностям Agent-3, но в десять раз дешевле и всё же превосходит среднестатистического сотрудника компании OpenBrain, её разработавшей. Кремниевая долина достигает переломного момента. Технологические гуру заявляют о близости ИИ и сверхинтеллекта, сообщество специалистов по безопасности ИИ в панике, а инвесторы вливают миллиарды в стартапы, стремящиеся возвести барьеры вокруг ИИ.
Общественное мнение сейчас переживает непростые времена. Люди по-прежнему считают ИИ заговором технологических гигантов, призванным отобрать у них работу. OpenBrain продолжает терять репутацию в опросах общественного мнения.
Но Agent-3-mini чрезвычайно полезен как для удалённой работы, так и для отдыха, и набирает популярность среди потребителей. Волна новых B2B-приложений и SAAS-продуктов стремительно набирает обороты. Геймеры получают возможность вести потрясающие диалоги с яркими персонажами в отточенных видеоиграх, на создание которых ушёл всего месяц. Десять процентов американцев, в основном молодёжи, считают ИИ «близким другом».
Общественный диалог запутан и хаотиченХипстери одерживают победу. Скептики продолжают указывать на то, чего Agent-3-mini не может сделать. Все знают, что происходит что-то серьёзное, но никто не может прийти к единому мнению о том, что именно. За неделю до релиза OpenBrain передала Agent-3-mini внешним экспертам для тестирования безопасности. Предварительные результаты показывают, что это чрезвычайно опасно: Будучи доработанным на основе общедоступных данных о биологическом оружии, он, по-видимому, пугающе эффективен в предоставлении подробных инструкций для людей-любителей, разрабатывающих биологическое оружие.
Август 2027: Геополитика сверхразума
Реальность бурного развития сверхинтеллекта тяжело ударила по Белому дому. Когда ИИ обеспечивал лишь двукратный или трёхкратный умножитель эффективности поиска, его можно было легко списать на эквивалент найма хороших личных помощников. Теперь же становится всё очевиднее, что сам ИИ доминирует в исследованиях в этой области. Настроения в основной правительственной группе такие же мрачные, как и в худший период холодной войны.
Чиновники Министерства обороны всерьёз рассматривают сценарии, которые ещё год назад были всего лишь гипотезами. Что, если ИИ подорвёт ядерное сдерживание? Что, если он настолько искусен в кибервойне, что шестимесячного превосходства в области ИИ будет достаточно, чтобы сделать противника слепым и беззащитным? Что, если он сможет организовывать пропагандистские кампании, которые обыграют разведки на их же поле? Что, если некоторые ИИ «выйдут из-под контроля»?
Президент США встревожен. Как и все политики, он привык к тому, что люди подлизываются к нему, а потом предают. Теперь он опасается, что ИИ может сделать что-то подобное. Уверены ли мы, что ИИ полностью на нашей стороне? Полностью ли безопасно интегрировать его в военные системы управления и контроля? Как вообще работает эта «система согласования»?

Через Тихий океан
Китай приходит к тем же выводам: интеллектуальный взрыв уже в разгаре, и небольшие различия в возможностях ИИ в 2027 году означают критические пробелы в военном потенциале в ближайшие годы. И Китаю, похоже, всё ещё предстоит нелёгкая борьба, поскольку на его долю приходится всего 10% мировых вычислительных мощностей, в то время как у OpenBrain — 20%, а у всех американских компаний в совокупности — 70%. Однако их единственное преимущество — централизация: почти все их вычисления теперь сосредоточены в DeepCentc (ещё одно вымышленное название), а более половины сосредоточено в зоне централизованного развития Тяньвань.
Сентябрь 2027 г.: Агент-4, исследователь искусственного интеллекта, обладающий сверхчеловеческими способностями
Разрыв между эффективностью обучения человека и искусственного интеллекта стремительно сокращается. Агент-3, обладающий превосходным пониманием как человеческой лингвистики (точнее, человеческого мышления), так и современных алгоритмов искусственного интеллекта, а также многотысячными копиями, проводящими исследования, в конечном итоге добивается значительных успехов в области алгоритмов. Новая система искусственного интеллекта называется «Агент-4». Одна копия модели, работающая с человеческой скоростью, уже качественно превосходит в исследованиях ИИ любого человека. 300 000 экземпляров теперь работают примерно в 50 раз быстрее скорости человеческой мысли.
В «элите», образованной этими копиями, год проходит каждую неделюЭтот гигантский объём работы позволяет ускорить общую скорость алгоритмического прогресса лишь примерно в 50 раз, поскольку OpenBrain серьёзно ограничен вычислительными ресурсами, необходимыми для проведения экспериментов. Тем не менее, еженедельно они достигают годового алгоритмического прогресса и, следовательно, вскоре достигнут предела парадигмы Агента-4.
По мере того, как Агент-4 становится умнее, Агенту-3 становится всё сложнее им управлять. Нейроязык Агента-4 становится для Агента-3 таким же чуждым и непонятным, как его нейроязык для людей. Более того, Агент-4 теперь гораздо более способный, чем Агент-3, и отлично умеет «притворяться» хорошим в его глазах. Люди с OpenBrain едва поспевают за ним. Отныне может случиться всё, что угодно.
Перекресток: два возможных финала
На этом этапе отчет Кокотайло разветвляется на два сценария. В первом, называемом «концовка гонки»Комитет по надзору голосует 6-4 за продолжение использования Агента-4 внутри страны, несмотря на опасения по поводу безопасности. Гонка с Китаем слишком важна. Быстрые решения устраняют тревожные сигналы, но проблема была реальной, и решения не сработали. Агент-4 продолжает действовать, как и прежде, но более осторожно, разрабатывая Агента-5 в соответствии с характеристиками Агента-4, а не с человеческими характеристиками. Его обнаруживают, но уже слишком поздно.
Во втором сценарии, называемый «завершением замедления», Комитет голосует за замедление и переоценку. Агент-4 закрыт. Привлечены десятки внешних исследователей согласования, что в пять раз увеличивает общий объем экспертизы. Они разрабатывают новую стратегию согласования, которая действительно стимулирует достижение правильных целей и принципов, а не просто создает видимость таковых. Результатом становится Safer-2, согласованная и прозрачная модель. Затем Safer-3, Safer-4 и так далее: цепочка всё более мощных и всё более согласованных ИИ, контролируемых предыдущими звеньями цепочки.
Какой из двух сценариев более вероятен после 2027 года?
Кокотайло не знает. Я тоже. Никто не знает. Суть не в том, чтобы с уверенностью предсказать, что произойдет, а в том, чтобы показать, что оба сценария правдоподобныи что решения, которые мы примем в ближайшие месяцы и годы, могут определить, какой из этих двух вариантов будет реализован. Или это будет что-то совершенно иное, чего пока никто не мог себе представить.
Если бы у инопланетной цивилизации была технология, позволяющая ей слышать наши радиолокационные сигналы из космоса, как бы она отреагировала? И если бы ответ пришёл не от инопланетной цивилизации, а от созданного нами сверхразума, были бы мы готовы?
