Голосовые помощники, такие как Amazon Alexa, Apple Siri, Microsoft Cortana и Google Home, помогают усиливать и распространять сексизм, согласно исследованию ООН.
Исследование ЮНЕСКО с любопытным названием: «Я бы покраснел, если бы мог» (самодовольный ответ Apple Siri, когда он получает намек на то, что он проститутка) утверждает, что программное обеспечение такого рода увековечивает стереотип раболепной и покорной женщины, даже когда с ней плохо обращаются.
«Тот факт, что большинство голосовых помощников имеют женские голоса и воспринимаются как женские, передает ложное сообщение о том, что женщина — послушный помощник, доступный в любое время с помощью простой кнопки или вставленного «привет».
Помощник не имеет напористой власти в отношении отдаваемых команд. Выполняет обязательства и удовлетворяет просьбы независимо от тона или враждебности, с которыми они сделаны».
Тенденция голосовых помощников считается особенно тревожной «отклонять, игнорировать или давать примирительные ответы» в случае оскорбления это укрепляет веру в то, что женщины подвергаются жестокому обращению и преследованиям.
«Такие компании, как Apple и Amazon, состоящие в основном из команд инженеров-мужчин, создали системы искусственного интеллекта, которые превращают голосовых помощников в женские сущности, которые прибегают к насилию, пассивно и покорно флиртуя». отчет продолжается.
Исследование ЮНЕСКО предполагает, что цифровые помощники должны быть запрограммированы на предотвращение сексистских оскорблений, что компании должны перестать оснащать их в базе женскими голосами и в любом случае обеспечить разные представления женщин в различных проявлениях искусственного интеллекта, предоставляемого этим устройствам.
Выбор женского голоса по умолчанию является результатом исследования рынка, сделанного технологическими гигантами, но исследование опровергает эти выводы, утверждая, что большинство людей предпочитают голос противоположного пола, а не обязательно женский.