Искусственный интеллект (что бы там ни говорили) еще не поглотил человечество и не стал осознанным. Но постепенно она становится у руля наших дней и наших правил.
Виртуальные помощники подслушивают нас в наших собственных домах. Алгоритмы определяют наш информационный горизонт, персонал, который нужно нанять, а со временем и преступника, которого нужно осудить. Этические границы их использования? Все более и более тонко и запутанно. Опасно запутался.

Дело проекта «Декабрь»
Это похоже на эпизод «Черного зеркала», шедеврального сериала Чарли Брукера, в котором исследуются «сбои» технологий и антиутопические сценарии, которые они могут генерировать. Не какую-то серию: конкретную одну, вышедшую в эфир в 2013 году. Для фанатов сериала она называлась «Торна да меня», «Скоро вернусь». Тем не менее, это не вымысел, это реальность.
Несколько месяцев спустя (Я рассказал тебе об этом здесь) 33-летний мужчина по имени Джошуа Барбо использовал сервис под названием Project December для создания разговорного робота (чат-бота), который мог бы имитировать разговоры со своей покойной девушкой Джессикой.
Через этого чат-бота Барбо обменивался любовными текстовыми сообщениями с искусственной «Джессикой». На момент написания статьи, может быть, при содействии августовской жары, я не задавал себе достаточно этических вопросов.
Сегодня я задаюсь вопросом, поскольку до сих пор нет нормы, регулирующей эти случаи: этически допустимо или предосудительно разрабатывать «дэдбота», говорящего робота умершего человека?
Дэдбот: прав или нет
Давайте сначала сделаем шаг назад. Проект декабрь был создан Джейсон Рорер, разработчик видеоигр, использующий GPT-3, языковая модель для генерации текста, разработанная OpenAI. И нарушение руководящих принципов Open AI, которые прямо запрещают использование GPT-3 для сексуальных, любовных, членовредительских или запугивающих целей.
С другой стороны, для Рорера OpenAI моралистична, а такие люди, как Барбо, «взрослые и согласные»: Проект декабрь продолжает работать, но без использования ГПТ-3, в полном противоречии с компанией.
Вернемся к дилемме: правильно или неправильно? Этично ли ведут себя Барбо и другие лица, которые могли воспользоваться этой услугой?
(Возможно) воли оставшихся не хватает...

Джессика была реальным человеком: достаточно ли воли ее бойфренда, чтобы создать робота, имитирующего ее? Даже когда они умирают, люди не просто вещи, с которыми другие могут делать все, что захотят.
Есть конкретные преступления, такие как очернение трупа, которые заставляют нас понять, насколько общество считает неправильным осквернять или не уважать память умерших. У нас есть моральные обязательства по отношению к ним, потому что, когда кто-то умирает, не все они перестают существовать. Чувства, воспоминания, примеры остаются, и правильно их беречь.
Еще раз: разработка мертвого бота, копирующего чью-то личность, требует больших объемов личной информации. Включая данные социальных сетей, которые, как было показано, раскрывают очень чувствительные черты.
Если неэтично использовать данные живых без их согласия, то почему это должно быть этично делать с мертвыми? Для этого также требовалось согласие «имитируемого» лица, то есть Джессики. Но будет ли этого достаточно?
... ни воля тех, кто умирает

Пределы согласия всегда являются спорным вопросом. Приведу пример: некоторое время назад дело «каннибала Ротенбурга» попало в заголовки (так сказать) новостей. Парень, приговоренный к пожизненному заключению, вы можете себе представить, почему, несмотря на то, что его жертва согласилась быть съеденной.
Осуждение было мотивировано тем, что неэтично соглашаться на вещи, которые могут нанести нам вред физически (продажа жизненно важных органов) или абстрактно (отчуждение своих прав).
Хотя мертвым нельзя причинить вред или оскорбить их так же, как живым, это не означает, что они неуязвимы для злых поступков или что эти поступки этичны.
Умершим может быть нанесен ущерб их чести, репутации или достоинству (например, посмертные клеветнические кампании), а неуважение к умершим также наносит вред членам их семей.
Таким образом, даже согласия человека быть «съеденным» (метафорически) и «выплюнутым» в виде говорящего робота может быть недостаточно.
Итак, как это будет происходить?
Мы понимали, что ни воли тех, кто хочет говорить с «реконструированным» умершим, ни воли тех, кто хочет, чтобы им «подражали» после смерти, может не хватить. Существуют ли этические способы сделать это? Если да, то кто будет нести ответственность за результаты работы мертвого бота, особенно в случае разрушительных эффектов?
Представьте себе мертвого робота Джессики, самостоятельно «научившегося» вести себя таким образом, чтобы память об умершем затмевалась или наносила ущерб психическому здоровью ее бойфренда.

Дэдбот: чья вина?
Для специалистов по искусственному интеллекту ответственность лежит на тех, кто участвует в проектировании и разработке системы, а во вторую — на всех агентах, которые с ними взаимодействуют. В этом случае задействованными субъектами будут OpenAI, Джейсон Рорер и Джошуа Барбо. Первый, OpenAI, прямо запретил использовать свою систему для этих целей: недостатков я не вижу. Второй, Джейсон Рорер, разработал мертвого бота, сделал это в нарушение рекомендаций OpenAI и получил от этого прибыль. Основная часть ответственности будет на вас. Третий, Джошуа Барбо, должен считаться ответственным за любые отклонения мертвеца. В любом случае установить это время от времени было бы непросто.
Подводя итог: будет ли мертвый бот этичным? Только при определенных условиях
Если все вовлеченные субъекты (человек, которого «имитирует» мертвый бот, человек, который разрабатывает мертвого робота, и человек, взаимодействующий с мертвым ботом) дали явное согласие, максимально детализировали (и ограничили) разрешенные виды использования и взяли на себя ответственность за любое отрицательные результаты, это можно сделать.
Это три жестких условия, которые делают процесс создания этих систем жестким, но дают серьезные гарантии.
И они подтверждают, насколько важна этика в сфере машинного обучения: нам нужно разработать правила сейчас, потому что эта технология будет чертовски быстро навязывать себя, рискуя опрокинуть наши ценности и наше общество.