Ближайшее будущее
Нет Результат
Просмотреть все результат
Март 27 2023
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+
Понимать, предвидеть, улучшать будущее.
CES2023 / коронавирус / Россия-Украина
Ближайшее будущее
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+

Понимать, предвидеть, улучшать будущее.

Нет Результат
Просмотреть все результат
компания, Технология

Ваш Дэдбот будет говорить за вас после вашей смерти. Вы позволите это?

Будет ли чат-бот, точнее мертвый бот, подражать вам и разговаривать с вашими родными и близкими, когда вы уйдете из жизни? Вот почему нам нужны правила.

6 сентября 2022
Джанлука РиччиоДжанлука Риччио
⚪ 6 минуты
Поделиться78шпилька18Твитнуть49ОтправитьПоделиться14ПоделитьсяПоделиться10

ПРОЧИТАЙТЕ ЭТО В:

Искусственный интеллект (что бы там ни говорили) еще не поглотил человечество и не стал осознанным. Но постепенно она становится у руля наших дней и наших правил.

Виртуальные помощники подслушивают нас в наших собственных домах. Алгоритмы определяют наш информационный горизонт, персонал, который нужно нанять, а со временем и преступника, которого нужно осудить. Этические границы их использования? Все более и более тонко и запутанно. Опасно запутался.

Дэдбот
Сцена из "Скоро вернусь", "Черное зеркало"

Дело проекта «Декабрь»

Это похоже на эпизод «Черного зеркала», шедеврального сериала Чарли Брукера, в котором исследуются «сбои» технологий и антиутопические сценарии, которые они могут генерировать. Не какую-то серию: конкретную одну, вышедшую в эфир в 2013 году. Для фанатов сериала она называлась «Торна да меня», «Скоро вернусь». Тем не менее, это не вымысел, это реальность.

Несколько месяцев спустя (Я рассказал тебе об этом здесь) 33-летний мужчина по имени Джошуа Барбо использовал сервис под названием Project December для создания разговорного робота (чат-бота), который мог бы имитировать разговоры со своей покойной девушкой Джессикой.

Статья продолжается после соответствующих ссылок

Сэм Альтман, генеральный директор OpenAI, признает: GPT-4 теперь и нас пугает

Вот GPT-4, он будет "мультирежимный" - будет и музыку, и видео, и картинки.

Через этого чат-бота Барбо обменивался любовными текстовыми сообщениями с искусственной «Джессикой». На момент написания статьи, может быть, при содействии августовской жары, я не задавал себе достаточно этических вопросов.

Сегодня я задаюсь вопросом, поскольку до сих пор нет нормы, регулирующей эти случаи: этически допустимо или предосудительно разрабатывать «дэдбота», говорящего робота умершего человека?

Дэдбот: прав или нет

Давайте сначала сделаем шаг назад. Проект декабрь был создан Джейсон Рорер, разработчик видеоигр, использующий GPT-3, языковая модель для генерации текста, разработанная OpenAI. И нарушение руководящих принципов Open AI, которые прямо запрещают использование GPT-3 для сексуальных, любовных, членовредительских или запугивающих целей.

С другой стороны, для Рорера OpenAI моралистична, а такие люди, как Барбо, «взрослые и согласные»: Проект декабрь продолжает работать, но без использования ГПТ-3, в полном противоречии с компанией.

Вернемся к дилемме: правильно или неправильно? Этично ли ведут себя Барбо и другие лица, которые могли воспользоваться этой услугой?

(Возможно) воли оставшихся не хватает...

Дэдбот
958Б69БД 9078 4042 А60Э 666Э36250025

Джессика была реальным человеком: достаточно ли воли ее бойфренда, чтобы создать робота, имитирующего ее? Даже когда они умирают, люди не просто вещи, с которыми другие могут делать все, что захотят.

Есть конкретные преступления, такие как очернение трупа, которые заставляют нас понять, насколько общество считает неправильным осквернять или не уважать память умерших. У нас есть моральные обязательства по отношению к ним, потому что, когда кто-то умирает, не все они перестают существовать. Чувства, воспоминания, примеры остаются, и правильно их беречь.

Еще раз: разработка мертвого бота, копирующего чью-то личность, требует больших объемов личной информации. Включая данные социальных сетей, которые, как было показано, раскрывают очень чувствительные черты.

Если неэтично использовать данные живых без их согласия, то почему это должно быть этично делать с мертвыми? Для этого также требовалось согласие «имитируемого» лица, то есть Джессики. Но будет ли этого достаточно?

... ни воля тех, кто умирает

Дэдбот

Пределы согласия всегда являются спорным вопросом. Приведу пример: некоторое время назад дело «каннибала Ротенбурга» попало в заголовки (так сказать) новостей. Парень, приговоренный к пожизненному заключению, вы можете себе представить, почему, несмотря на то, что его жертва согласилась быть съеденной.

Осуждение было мотивировано тем, что неэтично соглашаться на вещи, которые могут нанести нам вред физически (продажа жизненно важных органов) или абстрактно (отчуждение своих прав).

Хотя мертвым нельзя причинить вред или оскорбить их так же, как живым, это не означает, что они неуязвимы для злых поступков или что эти поступки этичны.

Умершим может быть нанесен ущерб их чести, репутации или достоинству (например, посмертные клеветнические кампании), а неуважение к умершим также наносит вред членам их семей.

Таким образом, даже согласия человека быть «съеденным» (метафорически) и «выплюнутым» в виде говорящего робота может быть недостаточно.

Итак, как это будет происходить?

Мы понимали, что ни воли тех, кто хочет говорить с «реконструированным» умершим, ни воли тех, кто хочет, чтобы им «подражали» после смерти, может не хватить. Существуют ли этические способы сделать это? Если да, то кто будет нести ответственность за результаты работы мертвого бота, особенно в случае разрушительных эффектов?

Представьте себе мертвого робота Джессики, самостоятельно «научившегося» вести себя таким образом, чтобы память об умершем затмевалась или наносила ущерб психическому здоровью ее бойфренда.

Б0Э490ДБ КДЭ9 4223 БЭ60 5Э55А368612Э

Дэдбот: чья вина?

Для специалистов по искусственному интеллекту ответственность лежит на тех, кто участвует в проектировании и разработке системы, а во вторую — на всех агентах, которые с ними взаимодействуют. В этом случае задействованными субъектами будут OpenAI, Джейсон Рорер и Джошуа Барбо. Первый, OpenAI, прямо запретил использовать свою систему для этих целей: недостатков я не вижу. Второй, Джейсон Рорер, разработал мертвого бота, сделал это в нарушение рекомендаций OpenAI и получил от этого прибыль. Основная часть ответственности будет на вас. Третий, Джошуа Барбо, должен считаться ответственным за любые отклонения мертвеца. В любом случае установить это время от времени было бы непросто.

Подводя итог: будет ли мертвый бот этичным? Только при определенных условиях

Если все вовлеченные субъекты (человек, которого «имитирует» мертвый бот, человек, который разрабатывает мертвого робота, и человек, взаимодействующий с мертвым ботом) дали явное согласие, максимально детализировали (и ограничили) разрешенные виды использования и взяли на себя ответственность за любое отрицательные результаты, это можно сделать.

Это три жестких условия, которые делают процесс создания этих систем жестким, но дают серьезные гарантии.

И они подтверждают, насколько важна этика в сфере машинного обучения: нам нужно разработать правила сейчас, потому что эта технология будет чертовски быстро навязывать себя, рискуя опрокинуть наши ценности и наше общество.

Теги: ChatbotДэдботГПТ-3openai


Чат GPT Megaeasy!

Конкретное руководство для тех, кто приближается к этому инструменту искусственного интеллекта, также предназначенному для школьного мира: множество примеров приложений, указаний по использованию и готовых инструкций для обучения и опроса Chat GPT.

Подавать статьи, раскрывать результаты исследований или научные открытия написать в редакцию

Самые читаемые месяца

  • AirCar, летающий автомобиль Лаззарини, гоночный автомобиль со скоростью 750 км/ч и 4 сиденьями.

    397 раз поделились
    Поделиться 159 Твитнуть 99
  • Окулус дает VR визит к дому Анны Франк

    195 раз поделились
    Поделиться 78 Твитнуть 49
  • Животные, которые знают, как жить вечно и где их найти

    952 раз поделились
    Поделиться 380 Твитнуть 238
  • Жесткая правда: будет ли Китай уже сильнее США в конфликте?

    5 раз поделились
    Поделиться 2 Твитнуть 1
  • Оффшорная солнечная энергия: Seavolt собирается произвести революцию в отрасли

    4 раз поделились
    Поделиться 1 Твитнуть 1
  • Поговорим с животными: биоакустическая революция проходит через ИИ

    5 раз поделились
    Поделиться 1 Твитнуть 1
  • Немецкие монахи-пивовары: «Прощай, бутылки и транспортные расходы, вот порошковое пиво»

    4 раз поделились
    Поделиться 1 Твитнуть 1

Войдите в Telegram-канал Futurorossimo, нажмите здесь. Или следуйте за нами на Instagram, Facebook, Twitter, Мастодонт e LinkedIn.

Ежедневное завтра.


Futurorossimo.it предоставляет новости о будущем технологий, науки и инноваций: если есть что-то, что вот-вот появится, здесь оно уже есть. FuturoProssimo является частью сети Вперед, исследования и навыки для будущих сценариев.

FacebookTwitterInstagramTelegramLinkedInМастодонтPinterestTikTok
  • Ambiente
  • архитектура
  • Искусственный интеллект
  • Гаджеты
  • концепции
  • Дизайн
  • медицина
  • Пространство
  • Robotica
  • работа
  • Транспорт
  • Энергия
  • Французское издание
  • немецкое издание
  • Японская версия
  • Английский издание
  • Португальское издание
  • Русское издание
  • Испанское издание

Подписаться на рассылку новостей

  • Редакторы
  • Реклама на ФП
  • Персональные данные

© 2022 Футуропроссимо - Creative Commons License
Эта работа распространяется по лицензии Creative Commons Attribution 4.0 International.

Нет Результат
Просмотреть все результат
Понимать, предвидеть, улучшать будущее.
  • Главная
  • Технология
  • здоровье
  • Ambiente
  • Энергия
  • Транспорт
  • Пространство
  • AI
  • концепции
  • H+