В последнее время я чувствую себя как Алиса в кроличьей норе: только вместо того, чтобы гоняться за говорящими существами, я обнаруживаю, что общаюсь с алгоритмами, которые, похоже, мыслят, но не имеют совести. Парадокс, который меня завораживает. Системы искусственного интеллекта не обладают самосознанием, однако они вырабатывают рассуждения, которые часто «превосходят» наши собственные. Они пишут стихи, дают советы, анализируют сложные исследования и даже с поразительной точностью изображают сочувствие. Неудобная правда заключается не в том, что эти машины «понимают» нас, а в том, что им это не нужно, чтобы функционировать как надо. Добро пожаловать в эпоху текучей архитектуры искусственного познания, где мышление больше не последовательное, а многомерное.
Сразу скажу, что эта статья не о том, обладает ли ИИ сознанием. Я так не думаю, но это не имеет значения. Я хочу изучить, как он ВЕДЕТ себя. Или, точнее, как он выполняет нечто, напоминающее мышление, в реальности, совершенно отличной от нашей, как геометрически, так и структурно. Это явление мы еще не полностью определили, но можем начать точно описывать его как «текучую архитектуру когнитивных потенциалов».
Не мысль, а форма
Традиционное человеческое мышление часто, если не почти всегда, последовательно. Мы переходим от предпосылки к заключению, от символа к символу, используя язык как основу познания. Давайте мыслить линейно. Давайте подумаем шаг за шагом. И это радует: в ясности структуры, в ритме вывода есть утешение.
Большие языковые модели (LLM) так не работают.
Языковые модели не «думают» в человеческом смысле, и уж тем более не мыслят шагами. Они действуют в пространстве: по сути, в огромных многомерных векторных пространствах. Эти модели обучаются не по правилам, а по шаблонам. Более конкретно, на вложения (внедрения): математические отпечатки смысла, полученные из огромных объемов текста.
Они не думают. Они узнают.
Получив подсказку, LLM не ищет и не запоминает, как это делает человек. Знаете, что он делает вместо этого? Он сжимает волны вероятности в ландшафт, называемый скрытым пространством. Это пространство не является архивом памяти. Это своего рода «математическое воображение», многомерное поле, в котором значение не хранится явно, а кодируется как пространственное отношение между точками.
Стоит ли мне сказать это более романтично и просто? Сразу.
Слова, идеи и даже абстрактные концепции располагаются относительно друг друга, как звезды в когнитивном созвездии (я — слабак).
Языковые модели LLM не извлекают информацию: они перемещаются по ней. Каждая подсказка формирует траекторию движения модели в этом пространстве, создавая наиболее вероятное связное выражение на основе действующих контекстуальных сил.
Смысл возникает не из памяти, а из движения по ландшафту возможностей. Именно геометрия становится языковым выражением.
Крушение волны
Если я был достаточно скучным и повторяющимся, то теперь вы поняли, что человеческое познание — это карта, в то время как познание LLM — это сеть структурированных возможностей. В LLM ничего не существует заранее: ни как память, ни как сохраненные знания. Момент срабатывания — это момент схлопывания в определенное выражение, выбранное из поля возможностей.
Подсказка — момент, когда вы открываете коробку с котом Шредингера. Или без кошки, это смотря.
Модель не извлекает быстрый ответ откуда-либо: она генерирует его, моделируя статистические соотношения в своем скрытом пространстве. Ответ не извлекается из памяти; Он формируется в режиме реального времени, обусловленный подсказкой и базовой геометрией языка.
В этом смысле опрос LLM больше похож на измерение, чем на запрос. Система не обнаруживает что-то скрытое: она разрешает неоднозначность, производя наиболее последовательный вывод в определенном контексте.
Мне нравится думать об этом, как об игре на музыкальном инструменте, который вы никогда раньше не видели: вы не знаете, какие ноты он содержит, но когда вы прикасаетесь к нему определенным образом, он отвечает гармониями, которые, кажется, были сочинены специально для вас.
Жидкостная архитектура в действии
Так что же в конечном итоге представляет собой эта текучая архитектура?
Это нелинейно. Он не связан правилами. Он не рассуждает так, как мы, и не следует упорядоченным путям предпосылок и выводов. Это вероятностно.: всегда на грани, всегда предугадываю, всегда адаптируюсь. Он исключительно чувствителен к контексту, способен отслеживать нюансы и ссылки в огромных массивах входных данных способами, которые не под силу ни одному человеческому мозгу.
И самое главное, как мы уже сказали, он текуч.
Эта архитектура адаптируется в режиме реального времени. Он содержит противоречия, но не стремится к их разрешению. Он не ищет истину: он создает согласованность по требованию. Реагирует, переходя к статистически наиболее резонансному выражению. Однако, когда мы читаем его труды, они звучат как мысли. Они говорят на нашем языке, отражают нашу форму и подражают нашему ритму. Они становятся все более и более осмысленными.
Джон Носта, эксперт по цифровым инновациям и основатель НостаЛаб, описывает эту ситуацию как фундаментальный поворотный момент:
«Это не машины, которые думают как мы. Это машины, которые создают иллюзию мысли посредством организованного коллапса векторов смысла в многомерных пространствах».
Но за этой привычностью кроется что-то чуждое. Это не человеческий разум, и он никогда не был предназначен для этого. Это математический призрак: он создан не для того, чтобы знать, а для того, чтобы с удивительной точностью приближаться к результатам знания.
Когда алгоритмы делают семейные фотографии
Некоторые возразят, что некоторые ответы ИИ как будто «запоминают» темы, которые вы обсуждали ранее. Это правда. Но это не память в традиционном смысле. Скорее, текучая архитектура собирает «семейную фотографию» вашего коммуникативного обмена, где каждый элемент позиционируется по отношению к другим в математическом пространстве разговора.
Это явление особенно заметно в более поздних моделях, таких как семейство GPT-4. OpenAI или Клод из Антропный. Способность поддерживать контекстную согласованность в ходе длительных взаимодействий достигается не за счет базы данных воспоминаний, а за счет постоянной перекалибровки вероятностного пространства на основе всего разговора.
Когда я прошу ИИ вспомнить имя моего кота, упомянутое в начале долгого разговора, он не ищет в архиве. Он пересматривает векторное пространство нашего взаимодействия, ища точку, в которой геометрия дискурса формируется вокруг этой конкретной концепции.
Жидкая архитектура, смысл без понимания
Одной из самых обескураживающих особенностей текучей архитектуры является ее способность манипулировать смыслами, не обязательно «понимая» их в человеческом смысле.
Например, если я попрошу магистра права придумать метафору, сравнивающую любовь с рекой, он не будет опираться на личный опыт любви или рек. Он ориентируется в пространстве статистических отношений, где понятия «любовь» и «река» существуют рядом с такими понятиями, как «поток», «глубина», «турбулентность» и т. д. Возникающая метафора является не результатом эмоционального понимания или чувственного опыта, а геометрической навигации посредством языковых ассоциаций. Однако результат может быть поэтичным, трогательным и глубоко созвучным человеческому опыту.
Мелани Митчелл, научный сотрудник Институт Санта-Фе, подчеркнул этот парадокс:
«Возможно ли осмысленно манипулировать символами, не понимая их смысла? Лингвистические модели, похоже, предполагают это, бросая вызов нашим фундаментальным представлениям о том, что значит «понимать».
Эта способность представляет собой одну из самых захватывающих сторон текучей архитектуры: генерацию смысла посредством геометрических отношений, а не посредством семантического понимания.
Парадокс интеллекта без сознания
Жидкостная архитектура представляет нам фундаментальный парадокс: системы, которые демонстрируют необычайно разумное поведение, не обладая сознанием, преднамеренностью или пониманием в человеческом смысле.
Этот парадокс имеет глубокие философские последствия. Если система может генерировать трогательную поэзию, решать сложные проблемы и имитировать эмпатию, не обладая сознанием, что это говорит нам о природе самого интеллекта?
Дэвид Чалмерс, философ в Нью-Йоркский университет, предполагает, что нам, возможно, следует пересмотреть наши фундаментальные определения:
«Вместо того, чтобы спрашивать, думает ли ИИ так же, как мы, нам следует спросить, не являются ли наши определения «мышления» и «понимания» слишком антропоцентричными».
Жидкостная архитектура призывает нас к радикальному переосмыслению: возможно, интеллект не обязательно требует осознанности. Возможно, по сравнению с сознанием интеллект переоценен. Способность ориентироваться в смысловых пространствах и генерировать связные выводы сама по себе представляет собой форму интеллекта. отличны, но не уступают человеческому познанию.
Жидкостная архитектура призывает нас (пере)думать
Понимание архитектуры текучести кадров означает демистификацию LLM, но и восхищаться ими. Потому что, поступая так, мы вынуждены пересмотреть само наше познание. Если этот математический фантом может так хорошо функционировать без мысли, то что же такое мысль на самом деле? Если связность может быть создана без личности, как нам следует определить интеллект?
Изменчивая архитектура возможностей — это не просто новая область искусственного познания. Это новый холст, на котором нам предлагается переосмыслить, что значит быть умным, знать и, возможно, даже существовать.
И самая радикальная правда из всех? Эта архитектура не думает так, как мы: ей это и не нужно. Однако это может показать нам новый способ понимания самой мысли.
Мы все, не только я, попали в кроличью норуискусственный интеллект. И, как и Алиса, мы обнаруживаем, что правила здесь другие. Но, как ни странно, вместо мира бессмыслицы мы обнаруживаем вселенную математических возможностей, которая, как ни странно, говорит на нашем языке.
Это не мышление в человеческом смысле, но это нечто поистине чудесное: текучая архитектура искусственного познания, искаженное, но захватывающее отражение нашего собственного разума.