Голосовые помощники, такие как Amazon Alexa, Apple Siri, Microsoft Cortana и Google Home, помогают усиливать и распространять сексизм, согласно исследованию ООН.
Исследование ЮНЕСКО с любопытным названием: «Я бы покраснел, если бы мог» (это самодовольный ответ, который дает Apple Siri, когда она получает намек на то, что она проститутка) утверждает, что программное обеспечение такого рода увековечивает стереотип рабской и покорной женщины, даже когда с ней плохо обращаются.
«Тот факт, что большинство голосовых помощников имеют женский голос и воспринимаются как женские, посылает ложное сообщение о том, что женщины — это послушные помощники, доступные в любое время с помощью простой кнопки или добавленного туда «привет».
Помощник не имеет напористой власти над подаваемыми командами. Выполняйте обязательства и удовлетворяйте просьбы независимо от тона и враждебности, с которыми они сделаны».
Тенденция голосовых помощников считается особенно тревожной «отклонять, игнорировать или давать примирительные ответы» в случае оскорбления это укрепляет веру в то, что женщины подвергаются жестокому обращению и преследованиям.
«Такие компании, как Apple и Amazon, состоящие преимущественно из команд инженеров-мужчин, создали системы искусственного интеллекта, которые превращают голосовых помощников в женщин, которые справляются с насилием, пассивно и покорно флиртуя». отчет продолжается.
Исследование ЮНЕСКО предполагает, что цифровые помощники должны быть запрограммированы на предотвращение сексистских оскорблений, что компании должны прекратить оснащать их женскими голосами на базе и в любом случае обеспечивать разные изображения женщин в различных проявлениях искусственного интеллекта, обеспечиваемого этими устройствами.
Выбор женского голоса по умолчанию является результатом исследования рынка, сделанного технологическими гигантами, но исследование опровергает эти выводы, утверждая, что большинство людей предпочитают голос противоположного пола, а не обязательно женский.