Все вы знаете историю инженера Google, который увидел признаки личности в последнем чат-боте Google с искусственным интеллектом (и позже он был уволен). Единодушное мнение журналистов и особенно экспертов? вопреки , вопреки , вопреки э ... вопреки.
Разными путями все, кажется, пришли к одному и тому же выводу, который, если хорошенько подумать, является выводом не только технического, но и здравого смысла. Чат-бот, каким бы развитым он ни был, — это функция. Функции они не разумны. Но они могут быть настолько развиты, что обманывают людей, о да, они могут. Так что реальный вопрос: кто будет их контролировать? Будут ли они использоваться прозрачно? Подписывайтесь на меня.
Потому что ИИ — это «просто» функции
Давайте вернемся к нашим заржавевшим схоластическим понятиям и скажем: функция — это правило преобразования числа (или списка чисел) в другое число (или список чисел). Согласно этому определению, ВСЕ сегодняшние системы искусственного интеллекта являются функциями, включая чат-бот LaMDA, который вызвал шум, стоив инженеру его работы.
Конечно, это очень сложные функции, но они все равно работают: программное обеспечение, лежащее в основе чат-бота, включает правила для преобразования сообщения, написанного буквами алфавита, в число, которое программа использует в качестве входных данных x, а затем для преобразования выходного сигнала f(x) обратно в сообщение, написанное буквами. Любой современный компьютер, включая компьютер вашего мобильного телефона, регулярно выполняет эти операции.
Вместо того, чтобы обсуждать, что подразумевается под словом «разумный» (которому, похоже, никто не может дать определения), мы могли бы спросить себя, как людям следует научиться использовать необычайную силу этих сложных функций.
Ядро: псевдослучайные функции
Математики и инженеры уже давно открыли или разработали новые функции. Например, «псевдослучайные» функции, которые генерируют результаты, которые полностью предсказуемы (для любого, кто знает лежащую в их основе формулу), но кажутся случайными для всех остальных.
На этапе «обучения» программное обеспечение чат-бота анализирует большие объемы текста. Представьте себе, что вы обнаружили, что в половине случаев за фразой «моей собаке это нравится» следуют слова «играть в апорт» или «жевать мебель». Когда обученного чат-бота заставляют общаться с человеком, входные данные, которые он получает (слова собеседника), могут сигнализировать ему, что пришло время сказать что-то о собаке.
Бегущее программное обеспечение использует одну из псевдослучайных функций, чтобы выбрать, что сказать о собаке: «поиграть в апорт» или «жевать мебель».
Кому принадлежат эти формулы?
Традиционно те, кто разработал лучший метод имитации случайности, публиковали его, чтобы другие могли его критиковать и копировать. Именно поэтому функции этого типа оказались очень успешными и широко распространенными: сегодня имитация случайности используется во многих приложениях, в том числе для защиты интернет-транзакций. Не имея перспективы стать миллиардером, многие ученые открыли новые функции и поделились ими — все добились прогресса. Это была хорошая система. Это работало веками. И сейчас?
В области искусственного интеллекта прогресс на переднем крае знаний сейчас находится во власти нескольких частных компаний. У них есть доступ к достаточному количеству данных и достаточной вычислительной мощности, чтобы обнаруживать и использовать чрезвычайно мощные функции, которые никто, глядя со стороны, не может понять.
Перекресток
Возьмем LaMDA. Это впечатляет. Это показывает, что искусственный интеллект может предложить людям удивительные новые способы доступа ко всем человеческим знаниям. Возможно, со временем Google сможет модифицировать LaMDA, чтобы сделать его новой «поисковой системой». Он предстанет перед нами гораздо более хитрым помощником, чем нынешние. Он выслушает нас, поймет нас и часто даже предугадывает наши мысли.
При желании он сможет направлять наш выбор, принося миллиарды долларов дохода компаниям, которые извлекут из этого выгоду.
Или, в руках незаинтересованных групп, они улучшат доступ к человеческим знаниям, возможно, став новой Википедией (надеемся, лучшей, чем предыдущая).
Как вы думаете, чем это закончится?
Не обманывайтесь функциями, какими бы сложными они ни были. Инженеры Google не являются современными докторами Франкенштейнами. Они не рождают живых существ. Они просто создают «Новую кока-колу», сверхраспространенный и всепроникающий продукт, основанный на секретном и уникальном ингредиенте, формулу которого знают только они.
Вместо того чтобы спорить о том, является ли чат-бот «разумным», нам следует рассмотреть долгосрочные последствия системы, которая отклоняется от науки. Система, которая переходит от знаний, приносящих пользу всем, к системе, в которой «секретные» знания передают власть и прибыль нескольким технологическим гигантам, которые постепенно становятся все более и более влиятельными, даже в политическом отношении. Новые правители менее справедливого мира.