Искусственный интеллект (что бы кто о нем ни говорил) еще не поглотил человечество и не обрел сознание. Но постепенно оно берет на себя управление нашими днями и нашими правилами.
Виртуальные помощники подслушивают нас в наших собственных домах. Алгоритмы определяют наш информационный горизонт, персонал, которого нужно нанять, а вскоре и преступника, которого нужно осудить. Этические границы их использования? Все более и более тонкие и запутанные. Опасно запутался.
Дело проекта «Декабрь»
Это похоже на эпизод из «Черного зеркала», шедеврального сериала Чарли Брукера, в котором исследуются «неудачи» технологий и антиутопические сценарии, которые они могут породить. Не просто серия, а именно одна, вышедшая в эфир в 2013 году. Для любителей сериала она называлась «Вернись ко мне», «Сейчас вернусь». Однако это не вымысел, это реальность.
Несколько месяцев спустя (Я рассказал тебе об этом здесь) 33-летний мужчина по имени Джошуа Барбо использовал сервис под названием Project December для создания разговорного робота (чат-бота), который мог бы имитировать разговоры со своей покойной девушкой Джессикой.
Через этого чат-бота Барбо обменивалась нежными текстовыми сообщениями с искусственной «Джессикой». На момент написания статьи, возможно, из-за августовской жары, я недостаточно задавал себе вопросы на этическом уровне.
Сегодня я задаю себе вопрос, поскольку еще не существует закона, регулирующего эти случаи: допустимо или предосудительно с этической точки зрения создание «мертвого бота», разговорного робота умершего человека?
Дэдбот: прав или нет
Давайте сначала сделаем шаг назад. Проект декабрь был создан Джейсон Рорер, разработчик видеоигр, использующий GPT-3, языковая модель генерации текста, созданная OpenAI. И нарушение принципов Open AI, которые прямо запрещают использование GPT-3 в сексуальных, романтических целях, целях причинения себе вреда или запугивания.
Однако для Рорера OpenAI является моралистическим подходом, а такие люди, как Барбо, являются «взрослыми и согласными»: Проект декабрь продолжает работать, но без использования GPT-3, что противоречит компании.
Вернемся к дилемме: правильно или неправильно? Этично ли ведут себя Барбо и другие лица, которые могли воспользоваться этой услугой?
(Может быть) воли тех, кто остался, недостаточно...
Джессика была реальным человеком: достаточно ли воли ее бойфренда, чтобы создать робота, имитирующего ее? Даже когда они умирают, люди не просто вещи, с которыми другие могут делать все, что захотят.
Есть конкретные преступления, такие как очернение трупа, которые заставляют нас понять, насколько общество считает неправильным осквернять или не уважать память умерших. У нас есть моральные обязательства по отношению к ним, потому что, когда кто-то умирает, не все они перестают существовать. Чувства, воспоминания, примеры остаются, и правильно их беречь.
Еще раз: разработка мертвого бота, копирующего чью-то личность, требует больших объемов личной информации. Включая данные социальных сетей, которые, как было показано, раскрывают очень чувствительные черты.
Если неэтично использовать данные живых без их согласия, почему должно быть этично поступать так с мертвыми? Для этого также понадобилось бы согласие «имитируемого» человека, то есть Джессики. Но было ли этого достаточно?
…ни воля тех, кто умирает
Пределы согласия всегда являются спорным вопросом. Приведу пример: некоторое время назад в заголовках газет (так сказать) попало дело «Ротенбургского каннибала». Парень приговорен к пожизненному заключению, вы можете себе представить, почему, хотя его жертва согласилась быть съеденной.
Осуждение было мотивировано тем, что неэтично соглашаться на вещи, которые могут нанести нам вред физически (продажа жизненно важных органов) или абстрактно (отчуждение своих прав).
Хотя мертвым нельзя причинить вред или оскорбить их так же, как живым, это не означает, что они неуязвимы для злых поступков или что эти поступки этичны.
Умершим может быть нанесен ущерб их чести, репутации или достоинству (например, посмертные клеветнические кампании), а неуважение к умершим также наносит вред членам их семей.
Таким образом, даже согласия человека на то, чтобы его «съели» (в переносном смысле) и «выплюнули» в виде разговорного робота, может быть недостаточно.
Итак, как это будет происходить?
Мы поняли, что ни воли тех, кто хочет говорить с «реконструированным» умершим, ни воли тех, кто хочет, чтобы ему «подражали» после смерти, может быть недостаточно. Существуют ли этические способы сделать что-то подобное? Если да, то кто будет нести ответственность за последствия работы мертвого робота, особенно в случае вредных последствий?
Представьте себе мертвого робота Джессики, который автономно «учится» вести себя так, что умаляет память об умершем или наносит ущерб психическому здоровью ее парня.
Дэдбот: чья вина?
Для специалистов по искусственному интеллекту ответственность лежит на тех, кто участвует в проектировании и разработке системы, а во вторую — на всех агентах, которые с ними взаимодействуют. В этом случае задействованными субъектами будут OpenAI, Джейсон Рорер и Джошуа Барбо. Первый, OpenAI, прямо запретил использовать свою систему для этих целей: недостатков я не вижу. Второй, Джейсон Рорер, разработал мертвого бота, сделал это в нарушение рекомендаций OpenAI и получил от этого прибыль. Основная часть ответственности будет на вас. Третий, Джошуа Барбо, должен считаться ответственным за любые отклонения мертвеца. В любом случае установить это время от времени было бы непросто.
Подводя итог: будет ли мертвый бот этичным? Только при определенных условиях
Если все вовлеченные субъекты (человек, которого «имитирует» мертвый бот, человек, который разрабатывает мертвого робота, и человек, взаимодействующий с мертвым ботом) дали явное согласие, максимально детализировали (и ограничили) разрешенные виды использования и взяли на себя ответственность за любое отрицательные результаты, это можно сделать.
Это три жестких условия, которые делают процесс создания этих систем жестким, но дают серьезные гарантии.
И они подтверждают, насколько важна этика в сфере машинного обучения: нам нужно разработать правила сейчас, потому что эта технология будет чертовски быстро навязывать себя, рискуя опрокинуть наши ценности и наше общество.