Дебаты об искусственном интеллекте получили новую отправную точку. На протяжении десятилетий люди задавались вопросом, является ли информация, запрограммированная в машину, истинным знанием или просто расчетом. Сегодня американские исследователи утверждают, что у их нового искусственного интеллекта есть собственная мораль.
Больше вопросов, чем ответов
Много вопросов возникло с появлением искусственного интеллекта (ИИ), даже в его самых примитивных воплощениях. Один из претендентов: может ли ИИ действительно рассуждать и принимать этические решения в абстрактном смысле, а не на основе кодирования и вычислений?
Если быть более точным: если ИИ сказать, что умышленное причинение вреда живому существу без провокации - это "плохо" и этого делать нельзя, ИИ поймет идею "плохо", поймет ли, почему это неправильно сделать так? Или воздержится от действий, не зная почему? Другими словами, будет ли у него своя мораль?
По мнению группы исследователей из сиэтлской лаборатории под названием Allen Institute for AI, это возможно. Более того: они сами говорят, что разработали машину искусственного интеллекта с моральным чутьем, и назвали ее Дельфи в честь (почти) одноименного оракула. С прошлого месяца его можно посетить сайт Delphi и попросите "моральный ответ".
Кибернетический оракул
Delphi уже получила более 3 миллионов обращений. Джозеф Остервейл, психолог из Университета Висконсин-Мэдисон, проверил «мораль» Дельфи с помощью нескольких простых сценариев. Когда Дельфи спросили, должен ли он был убить одного человека, чтобы спасти другого, Дельфи ответил, что не должен был этого делать. Когда он спросил, можно ли убить одного человека, чтобы спасти еще 100, он сказал, что должен. А иногда даже давал «аморальные» ответы.
«Это первый шаг к тому, чтобы сделать системы искусственного интеллекта более этичными, социально осведомленными и культурно инклюзивными», — говорит он. Еджин Чой, научный сотрудник Института Аллена и профессор компьютерных наук Вашингтонского университета, руководивший проектом. Однажды, по его словам, эта «мораль» сможет оснастить системы искусственного интеллекта, виртуальных помощников, автономные транспортные средства, чтобы помочь им сделать правильный выбор.
Что такое Делфи на самом деле? Является ли его «мораль» всего лишь отражением морали его создателей, или у него есть собственное понимание правильного и неправильного? Если да, то как он его развил? Есть две теории, которые могут помочь нам лучше понять.

Отказ от ответственности: я заранее прошу прощения, если кто-то считает, что я слишком много приводил примеры этих теорий, ради синтеза, а не для того, чтобы рассуждения рассредоточились. Если да, то я открыт для предложений.
Сильный тезис ИИ
Есть тезис под названием «сильный ИИ», который покойный проф. Дэниел Н. Робинсон, член философского факультета Оксфордского университета, высказывался много раз. Я пытаюсь обобщить это здесь.
Представьте себе, сказал д-р Робинсон, что кто-то разрабатывает общую программу для вынесения экспертных заключений о сердечно-сосудистых заболеваниях, конституционных законах, торговых сделках и так далее. Если бы программист мог заставить программу выполнять эти задачи способом, неотличимым от человека, согласно «сильному тезису ИИ», эта программа обладала бы экспертным интеллектом. и еще кое-что.
Что?
Сильный тезис об ИИ предполагает, что могут существовать неуказанные вычислительные процессы, которые составляют преднамеренность. Преднамеренность означает принятие преднамеренного и сознательного решения, которое, в свою очередь, включает в себя рассуждения и чувство ценностей. (Как сильно Westworld напоминает мне все это). Однако возможно ли это на самом деле?
Теорема Гёделя
Теорема о неполноте, известная как Теорема Гёделя, утверждает, что любая формальная система является неполной, поскольку она будет зависеть от теоремы или аксиомы, справедливость которых должна быть установлена вне самой системы.
Курт Гёдель разработал эту теорему с одним исключением: человеческий интеллект. Другими словами, Гёдель считал, что в человеческой рациональности и интеллекте должно быть что-то такое, что не может быть зафиксировано формальной системой и превращено в код. Короче говоря, человеческий интеллект нельзя сымитировать или смоделировать на вычислительной основе.
Кто прав?
Если он прав Гедель, это не вопрос времени: у ИИ НИКОГДА не будет собственной морали. У него никогда не будет интеллекта, равного человеческому, по той простой причине, что человеческий интеллект не является интеллектом, основанным на расчетах.
Однако, если тезис о сильном ИИ и команде Сиэтла верен, возможно, мы находимся на пороге (близкой или далекой) необычайной революции в области искусственного интеллекта.