Дебаты об искусственном интеллекте приобрели новый поворот. На протяжении десятилетий люди задавались вопросом, является ли информация, запрограммированная в машину, истинным знанием или просто вычислением. Сегодня американские исследователи заявляют, что их новый искусственный интеллект имеет свою мораль.
Больше вопросов, чем ответов
С появлением искусственного интеллекта (ИИ), даже в самых примитивных его воплощениях, возникло множество вопросов. Часто возникает вопрос: может ли ИИ на самом деле рассуждать и принимать этические решения в абстрактном смысле, а не на основе кодирования и вычислений?
Точнее: если вы скажете ИИ, что намеренное причинение вреда живому существу без провокации — это «плохо» и этого делать не следует, поймет ли ИИ идею «плохо», поймет ли он, почему это неправильно сделать это? Или он воздержится от действий, не зная почему? Другими словами, будет ли у него своя мораль?
По мнению группы исследователей из сиэтлской лаборатории под названием Allen Institute for AI, это возможно. Более того: они сами говорят, что разработали машину искусственного интеллекта с моральным чувством и назвали ее Дельфи, как (почти) одноименный оракул. Он открыт для посетителей с прошлого месяца. сайт Delphi и попросить «морального ответа».
Кибернетический оракул
Delphi уже получила более 3 миллионов обращений. Джозеф Остервейл, психолог из Университета Висконсин-Мэдисон, проверил «мораль» Дельфи с помощью нескольких простых сценариев. Когда он спросил Дельфи, следует ли ему убить одного человека, чтобы спасти другого, Дельфи ответил, что не следует. Когда он спросил, правильно ли убить одного человека ради спасения 100 других, он ответил, что так и должно быть. А иногда даже давал «аморальные» ответы.
«Это первый шаг к тому, чтобы сделать системы искусственного интеллекта более этически информированными, социально осведомленными и культурно инклюзивными», — говорит он. Еджин Чой, исследователь Института Аллена и профессор информатики Вашингтонского университета, который руководил проектом. Однажды, по его словам, эта «мораль» сможет снабдить людей системами искусственного интеллекта, виртуальными помощниками и автономными транспортными средствами, которые помогут им сделать правильный выбор.
Что такое Delphi на самом деле? Является ли его «мораль» просто отражением морали его создателей, или у него есть собственное понимание добра и зла? Если да, то как вы его разработали? Есть две теории, которые могут помочь нам лучше понять.
Отказ от ответственности: я заранее прошу прощения, если кто-то считает, что я слишком много приводил примеры этих теорий, ради синтеза, а не для того, чтобы рассуждения рассредоточились. Если да, то я открыт для предложений.
Сильный тезис об искусственном интеллекте
Есть тезис под названием «сильный ИИ», который покойный проф. Дэниел Н. Робинсон, член философского факультета Оксфордского университета, неоднократно высказывался. Я попытаюсь обобщить это здесь.
Представьте, сказал доктор Робинсон, что кто-то разработал магистерскую программу для предоставления экспертных заключений по сердечно-сосудистым заболеваниям, конституционным законам, торговым соглашениям и так далее. Если бы программист мог заставить программу выполнять эти задачи способом, неотличимым от человека, согласно «сильному тезису об искусственном интеллекте», эта программа обладала бы экспертным интеллектом. и еще кое-что.
Что?
Сильный тезис об искусственном интеллекте предполагает, что могут существовать неопределенные вычислительные процессы, которые будут представлять собой интенциональность. Намеренность означает принятие обдуманного и сознательного решения, которое, в свою очередь, предполагает рассуждение и чувство ценностей. (Как все это напоминает мне Мир Дикого Запада). Однако возможно ли это на самом деле?
Теорема Гёделя
Теорема о неполноте, известная как Теорема Гёделя, утверждает, что любая формальная система является неполной, поскольку она будет зависеть от теоремы или аксиомы, справедливость которых должна быть установлена вне самой системы.
Курт Гёдель разработали эту теорему, за одним исключением: человеческий интеллект. Другими словами, Гёдель считал, что в человеческой рациональности и интеллекте должно быть что-то такое, что не может быть уловлено формальной системой и преобразовано в код. Короче говоря, человеческий интеллект невозможно имитировать или моделировать на вычислительной основе.
Кто прав?
Если он прав Гедель, это не вопрос времени: у ИИ НИКОГДА не будет собственной морали. У него никогда не будет интеллекта, равного человеческому, по той простой причине, что человеческий интеллект не является интеллектом, основанным на расчетах.
Однако, если тезис о сильном ИИ и команде Сиэтла верен, возможно, мы находимся на пороге (близкой или далекой) необычайной революции в области искусственного интеллекта.