Представьте себе сцену: судья вызывает свидетеля, загораются экраны, и появляется лицо человека, умершего четыре года назад. Он надевает серую бейсболку, подстригает рыжую бороду и начинает говорить голосом, который семья помнит идеально. «Привет, я — созданная искусственным интеллектом версия Криса», — говорит он ошеломленному залу суда. Это первые показания в суде от умершего человека, которые стали возможны благодаря технологии deepfake. И это вызывает этическое землетрясение.
Дело, изменившее судебную историю
Кристофер Пелки он был 37-летним ветераном армии США, за плечами которого три командировки в Ирак и Афганистан. Его жизнь оборвалась 21 ноября 2021 года в Аризоне во время того, что должно было быть тривиальным дорожным происшествием. Габриэль Оркаситас, 54, застрелил его после ссоры на светофоре. Кристофер вышел из машины, чтобы прояснить ситуацию: он так и не вернулся.
В прошлом месяце во время слушания по делу Оркаситаса произошло нечто странное. никогда раньше не видел в истории судов. Стейси Уэйлс, сестра Кристофера, вместе со своим мужем Тим Уэйлс и его другу Скотт Йентцер, представил видео, которое оставило зал безмолвным.
Это был не простой фильм-воспоминание, а аватар, созданный с помощью искусственного интеллекта, который идеально воспроизводил внешность и голос пропавшего брата.
Технология, лежащая в основе аватара
Аватар Кристофера был создан с использованием Стабильная диффузия, одна из самых передовых платформ искусственного интеллекта для генерации изображений. Семья имеет загрузил в систему сотни фотографий, видео и аудиозаписей, включая интервью, которое Кристофер дал за несколько месяцев до своей смерти. Результатом стал дипфейк кинематографического качества: каждое выражение лица, каждая интонация голоса точно воспроизводили черты ветерана.
«Мы собрали свидетельства всех, кто его знал», — говорит Стейси Уэйлс. «От его учителя начальной школы до его сослуживцев в Афганистане. Мы хотели убедиться, что то, что скажет Кристофер, действительно отражает его характер».
«Сценарий» был написан его сестрой, но каждое слово было призвано отразить личность человека, которого описывают как «того типа, который снимет с себя рубашку и отдаст ее вам, если она вам понадобится».
Слова, которые тронули суд
Аватар Кристофера обратился напрямую к своему убийце со словами, которые потрясли весь зал суда: «В другой жизни, возможно, мы могли бы быть друзьями. Я верю в прощение. В Бога, который прощает». Сообщение завершалось приветствием, которое тронуло всех в зале: «Я сейчас иду на рыбалку. Я люблю вас всех. Увидимся на другой стороне».
Судья Тодд Лэнг он не скрывал своих эмоций: «Мне очень понравился этот ИИ», сказал он на вынесении приговора. «Хотя семья была справедливо возмущена и требовала максимального наказания, он позволил Крису говорить от всего сердца, как они его видели. Я не слышал, чтобы он требовал максимального наказания».
Позже Лэнг приговорил Хоркаситаса к 10 с половиной годам тюрьмы, максимальному сроку за непредумышленное убийство. Возможно, в конечном итоге это видео не удовлетворило жажду справедливости семьи. Но дело, как вы понимаете, не в этом..
Этический спор, разделивший экспертов
Показания в суде вызвали споры, выходящие далеко за рамки конкретного дела. Дерек Лебен, профессор деловой этики в Университет Карнеги-Меллона и автор книги «Этика для роботов», выразил сильные сомнения по данному вопросу:
«Я не ставлю под сомнение намерения этой семьи, но я опасаюсь, что не все будут правильно использовать ИИ. Если другие семьи создадут аватары, всегда ли они будут верны желаниям жертвы?»
Проблема касается одного из самых острых нервов цифровой эпохи: посмертного согласия. Как мы можем быть уверены, что слова, произнесенные аватаром, действительно отражают то, что сказал бы Кристофер? И, прежде всего, кто имеет право решать, что может или не может сказать умерший?
Прецедент, который заставляет задуматься
Как Я писал тебе здесь, использование искусственного интеллекта для воссоздания умерших не является абсолютной новинкой. «Танаботы» (чатботы мертвых) существуют уже некоторое время, в основном в развлекательных целях. Недавно я рассказывал вам, например, о курсах писательского мастерства, которые преподавала «напрямую», так сказать, великая писательница Агата Кристи «воскрешен» искусственным интеллектом. Однако дело Пелки знаменует собой качественный скачок: впервые цифровой аватар напрямую повлиял на судебное решение в суде.
А теперь шторм. Судебная конференция Правительство США уже объявило о начале публичных консультаций по вопросу регулирования использования доказательств, полученных с помощью искусственного интеллекта, в судебных разбирательствах. Гэри Марчант, профессор права в Университет штата Аризона, предупреждает:
«Среди прокуроров и адвокатов есть реальная обеспокоенность тем, что дипфейки будут использоваться все чаще. Их легко создать, и любой может сделать это с помощью телефона».
«ИИ-свидетели» в суде: будущее цифрового правосудия
Случай Кристофера Пелки — не единичный случай. Он представляет собой начало новой эры, в которой технологии переопределяют границы между жизнью и смертью, памятью и манипуляцией. Как показывают многочисленные исследованияЭксперты считают, что дипфейки являются одной из главных угроз, создаваемых искусственным интеллектом, именно из-за их способности подрывать доверие к аудиовизуальным доказательствам.
В то время как семья Уэльса полагает, что они дали Кристоферу возможность высказать свое последнее послание, научное и юридическое сообщество задается вопросом о рисках технологии, которая может превратить суды в театры эмоций, а не места правосудия. Голос Кристофера, настоящий или реконструированный, безусловно, оставил свой след. Но он также открыл вопросы, с которыми обществу придется столкнуться очень скоро: в какой степени мы готовы позволить искусственному интеллекту говорить за нас, даже после смерти?
Ответ определит не только будущее судов, но и то, как мы думаем о человеческой идентичности в цифровую эпоху.