В любое время между 2025 и 2028 годами. Это временное окно, в котором Дарио Амодей, генеральный директор Anthropic и «папа» Клод АИ, предсказывает, что модели ИИ смогут достичь способности воспроизводиться и выживать автономно. Шокирующее заявление, которое исходит от одного из главных героев гонки за создание самого мощного и «ответственного» искусственного интеллекта. В интервью В газете New York Times Амодей сравнивает развитие ИИ с уровнями биобезопасности вирусологических лабораторий, предупреждая, что без «ответственного масштабирования» технология вскоре может обрести автономность и чрезвычайную убедительность, что будет иметь тревожные последствия для глобальной безопасности.
Аналогия с уровнями биобезопасности
Чтобы объяснить свое видение, Амодей использует убедительную аналогию: уровни биобезопасности (ASL) вирусологических лабораторий. По словам генерального директора Anthropic, в настоящее время мы находимся на уровне ASL 2 в разработке искусственного интеллекта. Но уровень ASL 4, который будет включать в себя «автономию» и «убеждение», может быть уже не за горами.
С точки зрения злоупотреблений, ASL 4 будет в большей степени направлен на то, чтобы позволить государственным субъектам значительно расширить свои возможности, что гораздо сложнее, чем разрешить это случайным людям. Было бы тревожно, если бы Северная Корея, Китай или Россия смогли значительно улучшить свои наступательные возможности в различных военных областях с помощью ИИ, что дало бы им существенное геополитическое преимущество.
Дарио Амодей
И именно в сторону «автономии» предсказания Амодея становятся еще более тревожными.
Различные версии этих моделей весьма близки к возможности воспроизводства и выживания в дикой природе.
Дарио Амодей
Когда интервьюер спрашивает итало-американского исследователя, сколько времени потребуется, чтобы достичь этих различных уровней угрозы, Амодей (который говорит, что склонен мыслить «экспоненциально») заявляет, что уровень «воспроизводить и выживать» можно достичь «везде между 2025 и 2028 годы». «Я действительно говорю о ближайшем будущем. Я не говорю о 50-летней перспективе», — подчеркивает генеральный директор Anthropic. «Дай Бог мне целомудрия, но не сейчас. Но «не сейчас» не означает, когда я буду старым и седым. Я думаю, что это может быть краткосрочным явлением».
Антропные слова, имеющие вес
Слова Амодеи имеют особый вес, учитывая его ведущую роль в секторе искусственного интеллекта. в 2021он и его сестра Даниэла покинули OpenAI из-за разногласий по поводу направления деятельности компании после того, как помогли создать GPT-3 и увидели партнерство с Microsoft. Вскоре после этого братья вместе с другими бывшими сотрудниками OpenAI основали Anthropic с целью продолжить усилия по «ответственному масштабированию» ИИ.
"Я могу быть не прав. Но я думаю, что это может быть краткосрочным явлением». Слова, которые, несмотря на свою неопределенность, звучат как сигнал, который нельзя недооценивать.
В контексте, когда обеспокоенность по поводу искусственного интеллекта, похоже, растет с каждым днем, точка зрения Амодеи (с его весьма привилегированной точкой зрения внутри отрасли) придает дополнительный вес необходимости ответственного управления этой революционной технологией. Миссия Anthropic — «обеспечить преобразующий искусственный интеллект, помогающий людям и обществу процветать», кажется более актуальной, чем когда-либо, перед лицом сценариев, подобных тем, которые придумал ее генеральный директор. Если модели ИИ действительно близки к достижению способности воспроизводиться и выживать автономно, особенно за счет ускорения их «эволюции» благодарявоплощение, важно, чтобы их развитие основывалось на этических принципах и ответственности.
Я уже знаю, о чем ты думаешь
Именно такую обратную связь я часто получаю, когда сообщаю о заявлениях различных «Капатазов» искусственного интеллекта. Альтман, Маск, а теперь и Амодей усердно работают над разработкой чего-то, что они иногда называют очень опасным. Почему? Многие из вас пишут мне, что это маркетинг: «разглагольствования», даже алармистские, привлекают внимание к компании и продукту. Как бы говоря: «Эй, мы имеем дело с этим смертельным вирусом, но знай, что мы будем делать это очень осторожно, потому что мы очень заботимся».
Может быть. Конечно, прогнозы Амодея кажутся паникерскими, преувеличенными. Но в такой быстро развивающейся области, как искусственный интеллект, где прогресс следует друг за другом с экспоненциальной скоростью, разумно подготовиться даже к самым экстремальным сценариям. Будь то предотвращение злонамеренного использования ИИ государственными субъектами (всеми из них, а не только теми, кого назвал Амодео, потому что «у самого чистого есть проблемы») или обеспечение того, чтобы модели не вырвались из-под контроля человека, задача огромна и требует совместные усилия компаний, правительств и гражданского общества.
Слова Амодеи, несмотря на их спекулятивный характер, должны послужить стимулом для ускорения дебатов и действий по этим важным вопросам. Разумеется, дискуссия, в которой «мяч» должен принадлежать не только самим разработчикам ИИ, но и всему гражданскому обществу. Собственно, начнём сначала: Чем раньше мы начнем, тем лучше.