У дебатов об искусственном интеллекте есть новая отправная точка. На протяжении десятилетий люди задавались вопросом, является ли информация, запрограммированная в машину, истинным знанием или просто расчетом. Сегодня американские исследователи заявляют, что их новый искусственный интеллект имеет собственную мораль.
Больше вопросов, чем ответов
Многие вопросы возникли с момента появления искусственного интеллекта (ИИ), даже в его самых примитивных воплощениях. Один кандидат: может ли ИИ действительно рассуждать и принимать этические решения в абстрактном смысле, а не на основе кодирования и вычислений?
Если быть более точным: если ИИ сказать, что намеренное причинение вреда живому существу без провокации - это «плохо» и делать это нельзя, ИИ поймет идею «плохо», поймет ли он, почему это неправильно. сделать так? Или он воздержится от действий, не зная почему? Другими словами, будет ли у него своя мораль?
По мнению группы исследователей из сиэтлской лаборатории под названием Allen Institute for AI, это возможно. Более того: они сами говорят, что разработали машину с искусственным интеллектом, обладающую моральным чутьем, и назвали ее Delphi в честь (почти) одноименного оракула. С прошлого месяца его можно посетить сайт Delphi и просите «морального ответа».
Кибернетический оракул
Delphi уже получила более 3 миллионов обращений. Джозеф Остервейл, психолог из Университета Висконсин-Мэдисон, проверил «нравственность» Дельфи с помощью нескольких простых сценариев. На вопрос Дельфи, должен ли он убить одного человека, чтобы спасти другого, Дельфи ответил, что не должен. Когда он спросил, можно ли убить одного человека, чтобы спасти еще 100, он сказал, что должен. А иногда даже отвечал «аморально».
«Это первый шаг к тому, чтобы сделать системы искусственного интеллекта более этически информированными, социально осведомленными и культурно инклюзивными», - говорит он. Еджин Чой, исследователь Института Аллена и профессор компьютерных наук Вашингтонского университета, который руководил проектом. Однажды, говорит он, эта «мораль» сможет оборудовать системы искусственного интеллекта, виртуальных помощников, автономные транспортные средства, чтобы помочь им сделать правильный выбор.
Что такое на самом деле Delphi? Является ли его «мораль» просто отражением морали его создателей или у него есть собственное понимание правильного и неправильного? Если да, то как он это развил? Есть две теории, которые могут помочь нам лучше понять.

Отказ от ответственности: я заранее прошу прощения, если кто-то считает, что я слишком много приводил примеры этих теорий, ради синтеза, а не для того, чтобы рассуждения рассредоточились. Если да, то я открыт для предложений.
Сильный тезис об ИИ
Есть тезис под названием «сильный ИИ», который покойный проф. Дэниел Н. Робинсон, член философского факультета Оксфордского университета, неоднократно высказывалась. Я пытаюсь здесь резюмировать.
«Представьте, - сказал доктор Робинсон, - что кто-то создает общую программу для предоставления экспертных заключений по сердечно-сосудистым заболеваниям, конституционным законам, торговым сделкам и так далее. Если бы программист мог заставить программу выполнять эти задачи неотличимым от человека способом, согласно "сильному тезису ИИ", эта программа имела бы экспертный интеллект. и еще кое-что.
Что?
Сильный тезис ИИ предполагает, что могут существовать неопределенные вычислительные процессы, которые будут представлять собой намеренность. Преднамеренность означает принятие обдуманного и осознанного решения, которое, в свою очередь, включает в себя рассуждение и чувство ценностей. (Насколько мне все это напоминает «Мир Дикого Запада»). Однако возможно ли это на самом деле?
Теорема Гёделя
Теорема о неполноте, известная как Теорема Гёделя, утверждает, что любая формальная система является неполной, поскольку она будет зависеть от теоремы или аксиомы, справедливость которых должна быть установлена вне самой системы.
Курт Гёдель разработал эту теорему с одним исключением: человеческий интеллект. Другими словами, Гёдель считал, что в человеческой рациональности и интеллекте должно быть что-то, что не может быть уловлено формальной системой и превращено в код. Короче говоря, человеческий интеллект нельзя имитировать или смоделировать на вычислительной основе.
Кто прав?
Если он прав Гедель, это не вопрос времени: у ИИ НИКОГДА не будет собственной морали. У него никогда не будет интеллекта, равного человеческому, по той простой причине, что человеческий интеллект не является интеллектом, основанным на расчетах.
Однако, если тезис о сильном ИИ и команде Сиэтла верен, возможно, мы находимся на пороге (близкой или далекой) необычайной революции в области искусственного интеллекта.