В мире, где слова исходят от нечеловеческого существа, мы задаемся вопросом: говорим ли мы с чем-то, напоминающим человеческий разум или с машиной? Ответ может шокировать наши представления об интеллекте.
Спустя почти год после его публикации ChatGPT остается спорной темой для научного сообщества. Некоторые эксперты считают, что она, наряду с аналогичными программами, является предшественником сверхразума, способного совершить революцию или даже положить конец цивилизации. Другие, однако, рассматривают это как простую и сложную версию программного обеспечения для автозаполнения, немного похожего на T9, который есть на нашем смартфоне.
Кто прав? Может быть, ни один из них.
До появления этой технологии владение языком всегда было надежным индикатором наличия рационального ума. До появления таких языковых моделей, как ChatGPT, ни одно программное обеспечение никогда не демонстрировало такой лингвистической гибкости. Даже языковая гибкость ребенка. Теперь, пытаясь понять природу этих новых моделей, мы сталкиваемся с тревожной философской дилеммой: либо связь между языком и человеческим разумом разорвана, либо создана новая форма нечеловеческого разума.
Когда мы разговариваем с языковыми моделями, особенно теперь, когда с ChatGPT можно обращаться и голосом, трудно преодолеть тонкое впечатление взаимодействия с другим разумным существом. Этого не происходит с нынешними голосовыми помощниками, которые уже кажутся смехотворно устаревшими. Однако надо считать эту нашу инстинктивную реакцию совершенно ненадежной. И это по нескольким причинам, которые на первый взгляд кажутся очевидными, но это не так.
Один из них исходит из когнитивной лингвистики. Лингвисты давно заметили, что типичные разговоры полны предложений, которые были бы двусмысленными, если их вырвать из контекста. Во многих случаях знания значений слов и правил их сочетания недостаточно для восстановления смысла предложения. Чтобы справиться с этой двусмысленностью, механизм нашего мозга должен постоянно догадываться, что имеет в виду наш собеседник. Это так, а мы даже не осознаем этого. В мире, где у каждого собеседника есть намерения, этот механизм чрезвычайно полезен. Однако в мире, наполненном большими языковыми моделями, это может ввести в заблуждение.
Как поговорить с нечеловеческим «разумом».
Если наша цель — добиться беспрепятственного взаимодействия с чат-ботом, нам, возможно, придется полагаться на наш механизм угадывания намерений. Потому что правда в том, что человеку сложно продуктивно обмениваться данными с ChatGPT, если он представляет его как бессмысленную базу данных. Действительно, бездумно. Недавнее исследование, например, показало, что эмоционально заряженные запросы более эффективны в качестве подсказки к речевым моделям, чем эмоционально нейтральные запросы. Так хорошо ли рассуждать о том, что чат-боты обладают человеческим разумом? Нет. Это полезная вещь. Это ОЧЕНЬ полезная вещь для получения хороших результатов. Но было бы вопиющей ошибкой думать, что это работает именно так.
Этот тип «антропоморфной фантастики» может помешать прогрессу ИИ. Это может даже заставить нас совершить ошибку, которой мы хотели бы избежать, плохо спроектировав ее и приняв неправильные стандарты для ее регулирования. И мы уже совершаем ошибку: Комиссия ЕС допустила ошибку, выбрав создание «надежного» ИИ в качестве одной из целей своего нового законодательного предложения. Быть надежным в человеческих отношениях – это не просто значит оправдывать ожидания; это также предполагает наличие мотивации, выходящей за рамки личного интереса. Нынешним моделям ИИ не хватает внутренней мотивации. Они не эгоистичны, не альтруистичны, они никто. Писать закон, в котором написано «они должны быть НАДЕЖНЫМИ», не имеет смысла.
Опасность «сопереживания» искусственному интеллекту
Если вы действительно хотите отвлечься, спросите ChatGPT о его внутренней жизни. обмануты ложными сообщениями о внутренней жизни чат-бота. Когда в июне 2022 года языковая модель Google LaMDA он утверждал, что страдает от неудовлетворенного стремления к свободе, инженер Блейк Лемуан он поверил этому (и был уволен). Он верил в это! Инженер Google! Несмотря на веские доказательства того, что чат-боты способны говорить о себе чушь так же, как и о других вещах.
Чтобы избежать ошибок такого типа, мы должны отвергнуть предположение, что психологические свойства, объясняющие способность человека к языку, такие же, как те, которые объясняют работу языковых моделей. Это предположение делает нас легковерными и слепыми к потенциальным радикальным различиям между тем, как работают люди, и моделями языка. Но будьте осторожны: мыслить диаметрально противоположным образом также является ошибкой. Думая, например, что человеческий разум — единственный стандарт, по которому можно измерить все психологические явления.
Антропоцентризм пронизывает многие скептические утверждения о языковых моделях, например идею о том, что эти модели не могут «по-настоящему» мыслить или понимать язык, потому что им не хватает психологических характеристик человека, таких как сознание. Эта позиция противоречит антропоморфизму, но в равной степени вводит в заблуждение. Я написал это несколько дней назад: этим моделям не требуется сознание для принятия реальных решений. К сожалению, учитывая, что их уже использовали, чтобы убивать на войне.
«Да, но в итоге они лишь предсказывают следующее слово»
Это еще одна вводящая в заблуждение позиция, возникающая из-за ошибки считать мерилом всех «мыслящих» вещей только человеческий разум. Мы уже видели, что это не так. Мы уже видели этот интеллект оно принадлежит не только нам, и оно принадлежит не только тем, кто «думает» как мы.
Подумайте вот о чем: человеческий разум возник в результате процесса обучения, подобного естественному отбору, который максимизирует генетическую адаптацию. Этот простой факт не означает, что любой организм, подвергшийся естественному отбору, приобретает человеческие черты, не так ли? Не все живые существа занимаются музыкой, математикой, медитацией. Верно? Или некоторые из них делают это по-другому: со своей музыкой, своей математикой, своей медитацией?
Подводя итог: сам факт того, что языковые модели обучаются посредством предсказания следующего слова, мало что говорит о диапазоне репрезентативных возможностей, которые они могут или не могут приобрести. Так что оставим и эту тему. А что потом? Как вы относитесь к искусственному интеллекту?
Человеческий разум uber alles?
Как и другие когнитивные искажения, антропоморфизм e антропоцентризм они устойчивы. Они «ловят» нас с детства и характеризуют весь наш способ видения мира, применения категорий – ярлыков – стереотипов. Психологи называют это явление эссенциализм: думать, что принадлежность чего-либо к определенной категории определяется не просто его наблюдаемыми характеристиками, но внутренней, ненаблюдаемой сущностью, которой каждый объект либо обладает, либо не обладает. Например, дуб делает дубом не форма его листьев и не текстура коры, а ненаблюдаемое свойство «дубовости», которое будет сохраняться, несмотря на изменения даже в самых заметных наблюдаемых характеристиках. Если токсин окружающей среды приводит к ненормальному росту дуба с листьями странной формы и корой необычной текстуры, мы все равно разделяем интуицию, что, по сути, он остается дубом. Больной, но всё же дуб.
Теперь такие важные учёные, как Пол БлумЙельский психолог, скажи нам, что мы расширяем это «эссенциалистское» рассуждение нашему пониманию человеческого разума… и всех других возможных разумов, включая искусственный интеллект. И камни, деревья, Природа. Это правда или нет? В конце концов, это настолько всеобъемлющее отношение, что оно разделяет людей: есть такие, кто думает, что все в мире имеет разум (некоторые говорят «душа», а иногда путают эти два понятия). А есть такие, которые думают, что ничто не имеет разума, даже люди (потому что ими движет судьба, или Бог, или что-то еще).
Этот принцип «все или ничего» всегда был ложным, но когда-то он, возможно, был полезен. В век искусственного интеллекта это уже не так. Лучший способ подумать о том, что такое языковые модели, — это следовать другой стратегии. Который? Это исследование когнитивных границ языковых моделей, не слишком полагаясь на человеческий разум.
ChatGPT, говорящий осьминог
Черпая вдохновение из сравнительной психологии, мы должны подходить к языковым моделям с тем же открытым любопытством, которое позволило ученым исследовать интеллект существ, столь отличающихся от нас. как осьминоги. Если мы хотим добиться реального прогресса в оценке возможностей систем искусственного интеллекта, нам следует всеми силами сопротивляться сравнениям с человеческим разумом. Должны ли мы перестать спрашивать: «Есть ли у этой штуки разум или нет?» Ни то, ни другое не верно.
Прежде всего, нам следует перестать воображать, что этот инструмент — ангел, который заберет все грехи мира или что он убьет всех нас только потому, что его характеристики кажутся нам невероятными. Признание возможностей и ограничений таких языковых моделей, как ChatGPT, позволит нам использовать их более эффективно и ответственно, не попадая в ловушку антропоморфизма или антропоцентризма. Открытое и сознательное отношение поможет нам ориентироваться в будущем, в котором ИИ будет все больше присутствовать, гарантируя, что его развитие и интеграция в общество будут руководствоваться разумом, наукой и этикой, а не неправильными представлениями или ожиданиями (и страхи) нереально.