Будущее, пел Энрико Руджери, — это гипотеза. А в этой гипотезе есть еще и искусственный интеллект, способный не только обыграть человека в шахматы или Го, но и написать романы, сочинять симфонии. Делать научные открытия, даже чувствовать эмоции. Это мираж общего искусственного интеллекта, или ОИИ: систем с общими когнитивными способностями, подобными человеческим и превосходящими их. Цель, которая, кажется, приближается благодаря передовым лингвистическим моделям, таким как GPT-4 а теперь еще и ол. Однако остается еще много теоретических и практических вопросов, требующих решения.
Мечта об ОИИ
На протяжении десятилетийобщий искусственный интеллект (AGI) — это Эльдорадо, земля обетованная для исследователей искусственного интеллекта. Идея создания машины, способной сравняться и превзойти человеческие когнитивные способности во всех областях (от отвлеченные рассуждения все творчество, С планирование все обобщение навыков) завораживает и пугает одновременно.
Фактически система AGI сможет автономно решать чрезвычайно сложные проблемы, такие как изменение климата, будущие пандемия, находя лекарства от таких разрушительных болезней, как рак и л 'альцгеймер. Оно могло бы развивать науку и технологии беспрецедентными темпами, производя революцию в таких областях, как освоение космоса, экологически чистая энергетика, транспорт и образование.
С другой стороны, сверхуниверсальный искусственный интеллект будет обладать огромной и потенциально неконтролируемой силой, если не будет должным образом соответствовать человеческим ценностям. «Ужасные вещи могут произойти из-за того, что мы неправильно используем ИИ или теряем над ним контроль», — предупреждает он. Йошуа Бенгио, один из отцов глубокого обучения и пионер исследований AGI. Апокалиптические сценарии, которые перекликаются с сценариями, придуманными учёными уровня Stephen Hawking и дальновидные предприниматели, такие как Elon Musk.
AlphaGo и ограничения существующих систем искусственного интеллекта
Еще несколько лет назад AGI казался далеким миражом. Достижения в области «узкого» ИИ были впечатляющими, но ограничивались конкретными задачами. Подумайте, например, о AlphaGo, система искусственного интеллекта, разработанная Google DeepMind способный победить чемпионов мира по настольной игре Го. Исторический результат, который, однако, не делает AlphaGo умным в общем смысле: он умеет только играть в Го, но не может импровизировать как писатель, композитор или ученый.
Это предел существующих систем искусственного интеллекта, даже самых продвинутых: они «знающие идиоты», чрезвычайно хорош в узкой области (будь то игра в шахматы, распознавание изображений или генерация текста), но не способен перенести эти навыки в другие области. Им не хватает этой способности обобщать e абстрактный, который является показателем человеческого интеллекта.
Революция лингвистических моделей
Недавняя революция лингвистические модели как GPT-3 OpenAI, LaMDA автор Google, DALL-E (также от OpenAI), Stable Diffusion от Стабильность ИИ, цитируя самого известного, изменил карты на столе. Или, скорее, он показал нам более близкое представление о том, как будет выглядеть общий искусственный интеллект, чем мы думали до недавнего времени.
Особенность, которая делает эти модели такими многообещающими, принадлежит им. многофункциональность: в отличие от «ограниченных» систем ИИ, они способны решать самые разные задачи: от написания текстов до создания изображений, от разговоров до решения проблем, часто с впечатляющими результатами.
Многофункциональность, которая в чем-то напоминает функциональность человеческий разум и заставило некоторых исследователей говорить об «общем искусственном интеллекте, уже достигнутом». В частности, недавний анонс ол, последней модели OpenAI, которой (в некоторых случаях мало кто, если честно) может похвастаться емкость рассуждения и изучение гораздо более человекоподобный, чем его предшественники, вновь разжег дебаты.
Проблемы, которые необходимо решить на пути к общему искусственному интеллекту
Приходите соттолина Франсуа Шоле, ученый-компьютерщик и создатель платформы искусственного интеллекта Keras, современные модели больших языков по-прежнему страдают от серьезных ограничений, которые делают их «недостаточными для достижения AGI».
Одной из основных проблем является обобщение: Несмотря на то, что эти системы обучены на огромных объемах данных (терабайты текста и изображений), им сложно применить то, чему они научились, к ситуациям, даже немного отличающимся от тех, на которых они обучались. «Языковые модели не могут адаптироваться к новизне, потому что у них нет способности оперативно комбинировать свои знания для адаптации к новым контекстам», — объясняет Шолле.
С обобщением связано также понятие «учимся на нескольких примерах» (многократное обучение), одна из ключевых характеристик человеческого интеллекта. На сегодняшний день языковые модели требуют огромного количества данных и дорогостоящего переобучения, чтобы «освоить» новые задачи, в то время как мы, люди, мы часто можем уловить концепцию на основе одного или нескольких примеров.
Невозможные пути к общему искусственному интеллекту
Как показывают некоторые эксперименты, «внутренние представления» что лингвистические модели, конструирующие реальность, часто поверхностны и непоследовательны. Например, группа исследователей из Гарвардский обучил модель маршрутам такси в Нью-Йорке, сумев заставить ее с большой точностью предсказывать пункт назначения по отправной точке. Однако, взглянув на «мысленные карты», разработанные системой, исследователи обнаружили, что они совершенно бессмысленны, «с дорогами физически невозможной ориентации и эстакадами, проходящими над другими дорогами».
Наконец, в текущих моделях до сих пор отсутствует механизм. Обратная связь подобно тому, что присутствует в человеческом мозге, где информация течет двунаправленно между различными слоями нейронов, позволяя вам интегрировать восприятие, рассуждения и действия. В то время как сенсорная информация поднимается вверх, создавая абстрактные представления о мире, те же самые представления могут влиять на восприятие и направлять получение новой актуальной информации. Динамика, которая обеспечивает ключевые функции, такие как воображение, планирование, формулирование гипотез для проверки. Текущие модели? Ничего подобного у них нет. Общий искусственный интеллект (AGI), который может появиться где-то в ближайшем будущем? Возможно. Может быть.
Не сейчас. Некоторые из этих функций теперь доступны только элементарным способом, путем «внешнего добавления» специальных модулей, называемых «верификаторами», к моделям, которые оценивают и корректируют выходные данные. Но это подход, который не очень масштабируем и далек от эффективности человеческого разума.
Общий искусственный интеллект, следующие шаги к цели
Несмотря на эти ограничения, путь к созданию действительно общего искусственного интеллекта сегодня кажется более ясным и практичным. С теоретической точки зрения, кажется, не существует непреодолимых препятствий: «Люди и некоторые животные являются живым доказательством того, что туда можно добраться», — подчеркивает он. Мелани Митчелл, профессор Института Санта-Фе и эксперт AGI. Проблема скорее в проектировании и реализации, чем в концептуальном плане.
Исследователи уже работают над системами искусственного интеллекта следующего поколения, которые преодолевают ограничения существующих и включают в себя ключевые функции человеческого интеллекта, такие как:
- Модели мира более сложные, последовательные и адаптируемые для поддержки рассуждений, планирования и обобщений высокого уровня. Представления, подобные нашим «мысленным симуляциям», с помощью которых мы представляем гипотетические сценарии для принятия решений.
- Внутренняя обратная связь которые обеспечивают двунаправленный и рекурсивный поток информации, в котором абстрактные представления могут направлять получение дополнительных соответствующих данных и постановку экспериментов для проверки гипотез.
- Maggiore коэффициент полезного действия в обучении развивается способность активно выбирать, какую информацию «попробовать» для уточнения своих моделей, вместо того, чтобы полагаться на беспорядочную массу данных. Немного похоже на ребенка, который активно исследует окружающую среду в поисках интересных стимулов.
- Форма «метапамять», то есть осознание того, что известно и не известно, чтобы направлять исследование и целенаправленное приобретение новых знаний.
- Отдельные помещения для кратковременная и долговременная память быстро хранить, вспоминать и рекомбинировать предыдущие знания и опыт, как это происходит в системах биологической памяти.
- Какая-то форма сознание и самомодель, чтобы направлять целенаправленное поведение и эффективное взаимодействие с окружающей средой и с другими агентами, искусственными или человеческими.
По многим из этих пунктов наблюдается интересный прогресс.
Йошуа Бенджио, например, работает над новой архитектурой нейронных сетей, которую он называет «генерирующие потоковые сети», способный одновременно учиться строить модели мира и модули, чтобы использовать их для рассуждений и планирования. Подход, который в чем-то напоминает функционирование человеческого мозга.
Другие исследователи, такие как Джефф Хокинс из Numenta пытаются реализовать принципы биологической памяти в системах искусственного интеллекта с отдельными структурами для краткосрочной и долгосрочной памяти, а также процессов консолидации и поиска информации. Гипотеза состоит в том, что это может помочь с проблемами обобщения и абстрактного мышления.
А есть такие, как нейробиолог-теоретик Карл Фристон из Университетского колледжа Лондона предполагает, что ключом к подходу к AGI является создание систем, которые не просто пассивно «поглощают» обучающие данные, но активно решают, сколько и какую информацию следует отбирать для достижения своих целей. Принцип, аналогичный «активному отбору проб» у живых существ.
Этические проблемы и проблемы безопасности AGI
Если создание общего искусственного интеллекта теоретически возможно, это не означает, что здесь нет рисков или критических проблем. Как уже упоминалось, сверхразум, вышедший из-под контроля или не соответствующий человеческим ценностям, может представлять экзистенциальную угрозу для нашего вида. Не говоря уже о возможных последствиях для экономики, труда, неравенства, конфиденциальности и манипулирования информацией.
По этой причине исследователи любят Стюарт Рассел Университета Беркли подчеркивают важность разработки методов с самого начала «Согласование ценностей» (согласование ценностей), чтобы гарантировать, что системы AGI имеют цели и поведение, совместимые с этикой и благополучием человека.
Перспективными подходами в этом направлении являются те, которые направлены на то, чтобы вывести этическое поведение и ценности из динамики обучения самой системы, не навязывая их извне. Интересное предложение заключается в«совместное обучение с обратным подкреплением» (ЦИРЛ). При использовании CIRL агент ИИ вознаграждается за выполнение человеческих предпочтений, но сами эти предпочтения частично выводятся из поведения агента и уточняются с течением времени.
Другие исследователи считают, что важно, чтобы развитие ОГИ происходило постепенно. Я перефразирую: «многослойный», с повышением уровня автономии и навыков, чтобы мы могли тестировать и проверять безопасность системы на каждом этапе. Примерно то же самое происходит с развитием человеческого мозга, который проходит этапы усложнения: от базовых двигательных и перцептивных навыков до языка и высших когнитивных способностей.
И тогда, очевидно, возникает проблема регулирующий e управление: Кто и как должен контролировать развитие таких мощных технологий, как AGI? Только частные компании и лаборатории или также правительства и международные организации? Многие скептически относятся к способности нынешних нормативных и институциональных рамок продолжать идти в ногу со временем и призывают к «глобальному управлению» ИИ, но контуры этого футуристического управления еще предстоит определить.
Общий искусственный интеллект, увлекательное и неопределенное будущее
Если потянуть за ниточки, насколько мы близки к цели создания общего искусственного интеллекта, сравнимого с человеческим интеллектом или превосходящего его? Трудно сказать наверняка, оценки экспертов разнятся. в течение нескольких лет до нескольких десятилетий. Несомненно то, что прогресс последних лет сделал ОИИ гораздо более ощутимой целью и придал впечатляющий импульс развитию этой области.
Дорога полна препятствий, но цель никогда не казалась такой близкой. И если однажды, надеюсь, не очень далеко, искусственный интеллект сможет задавать нам вопросы, проверять гипотезы, учиться на опыте и даже чувствовать эмоции... тогда мы будем знать, что прибыли. И что мир, к лучшему или к худшему, уже никогда не будет прежним.