Вы когда-нибудь рассказывали кому-то о своих проблемах и чувствовали себя непонятым? Или, что еще хуже, осудят? Шокирующее новое исследование показывает, что алгоритм может оказаться более понятным, чем человек-терапевт. Исследование, опубликовано в журнале «Психология коммуникаций», обнаружил, что Люди воспринимают ответы, полученные с помощью ИИ, как более сострадательные и понимающие, чем ответы, полученные от экспертов по психическому здоровью. И что самое удивительное? Это предпочтение «искусственной» эмпатии сохраняется даже когда участники прекрасно знают, что взаимодействуют с машиной. Я приведу вам неопровержимый факт: в среднем ответы, генерируемые ИИ, были оценены на 16% более сострадательными, чем человеческие, и были предпочтительны в 68% случаев, даже по сравнению с операторами специализированного управления кризисами.
Искусственное сострадание побеждает в схватке лицом к лицу
Ученые не просто теоретизировали: Они провели четыре строгих эксперимента с участием 550 человек. Испытуемые предоставили информацию о личном опыте, а затем Они оценили полученные ответы по уровню сострадания, отзывчивости и общего предпочтения. Сценарий был контролируемым: с одной стороны, ответы, генерируемые ИИ, с другой — ответы специалистов по психическому здоровью.
Результат удивил даже исследователей: Даже когда участники прекрасно знали, что читают сгенерированные компьютером слова, они все равно находили их более сострадательными, чем человеческие ответы. Как будто искусственная эмпатия способна затронуть струны, которые не под силу терапевтам-людям, со всеми их знаниями и опытом.
Дарья Овсянкова, ведущий автор исследования и научный сотрудник кафедры психологии Университета Торонто, высказал интересное мнение о причинах такого успеха. По ее словам, ИИ отлично справляется с определением мельчайших деталей и сохраняет объективность при описании кризисных ситуаций. таким образом, создается осторожное общение, создающее иллюзию сочувствия. Потому что, подчеркиваю, это иллюзия.
Человеческие ограничения, которых не знает искусственная эмпатия
Почему люди, мастера эмпатии по определению, потерпели поражение на этой территории? Ответ может крыться в наших биологических и психологических ограничениях. Как он объясняет ОвсянниковаОператоры-люди подвержены усталости и выгоранию, что неизбежно влияет на качество их реакции.
С другой стороны, ИИ никогда не устает. У него не выдался плохой день, он не привносит в интервью стресс от ссоры, которая произошла накануне вечером, у него нет предрассудков (по крайней мере, человеческих). Она постоянно внимательна, всегда на месте, полностью сосредоточена на задаче.
Операторы-люди подвержены усталости и выгоранию, что неизбежно влияет на качество их реакции.
Но это еще не все: алгоритмы «видели» гораздо больше кризисов, чем любой терапевт-человек. Они обработали миллионы взаимодействий, выявляя закономерности и корреляции, невидимые человеческому глазу. Как он объясняет Элеонора Уотсон, специалист по этике ИИ и член IEEE, «ИИ, безусловно, может моделировать поддерживающие реакции с удивительной согласованностью и очевидной эмпатией, чего людям трудно добиться из-за усталости и когнитивных предубеждений».
Ответ на глобальный кризис психического здоровья?
Время этого открытия не могло быть более знаменательным. По данным Всемирной организации здравоохранения, Более двух третей людей с проблемами психического здоровья не получают необходимой им помощи. В странах с низким и средним уровнем дохода этот показатель возрастает до 85%.
Искусственная эмпатия может стать доступным решением для миллионов людей, которые в противном случае не получили бы поддержки. Как отмечает Уотсон, «доступность машин является положительным фактором, особенно по сравнению с дорогими специалистами, чье время ограничено». Это явление мы недавно заметили и в отношении обращения за медицинской помощью, еще одно исследование, о котором мы здесь говорили. Есть еще один аспект, который следует учитывать: многим людям проще раскрываться с помощью машины. «Существует меньше страха осуждения или сплетен», — отмечает исследователь. Нет никакого пристального взгляда со стороны другого человека, нет страха разочаровать его, нет смущения показать свою уязвимость. Однако риски существуют, и к ним нельзя относиться легкомысленно.
Риски искусственной эмпатии
Уотсон Он называет это «опасностью сверхнормального стимула»: это тенденция сильнее реагировать на преувеличенную версию стимула. «ИИ настолько привлекателен, что мы им очарованы», — объясняет он. «ИИ может быть провокационным, проницательным, поучительным, развлекательным, сложным, толерантным и доступным в такой степени, что ни один человек не может с этим сравниться». Не говоря уже, конечно, о проблеме конфиденциальности, которая особенно важна, когда речь идет о психическом здоровье. «Последствия для конфиденциальности будут радикальными», — отмечает автор исследования, специалист по этике. «Наличие доступа к самым глубоким уязвимостям и трудностям людей делает их уязвимыми для различных форм атак и деморализации».
Ясно одно: технологии начинают преуспевать в областях, которые мы всегда считали исключительно человеческими. Сострадание, сочувствие, понимание (качества, определяющие нашу человечность) оказываются алгоритмически моделируемыми там, где они больше всего нужны (и могут навредить): в восприятии тех, кто их получает.
Это увлекательный парадокс: чтобы почувствовать себя по-настоящему понятыми, мы можем обратиться к чему-то, что никогда по-настоящему нас не поймет, но точно знает, как заставить нас почувствовать себя понятыми.