Когда-нибудь, в не столь отдаленном будущем, некоторые из ваших коллег могут стать аватарами искусственного интеллекта. Вы сами можете попросить электронного имитатора присутствовать на собраниях от вашего имени. Очаровательно, не правда ли? Да, но тоже ужасно.
Некоторое время назад я рассказывал вам о Час первый, компания, которая первой показала реалистичные аватары. Это было меньше года назад: удивительно видеть, как быстро развивается эта отрасль. Сегодня Synthesia создала аватары с искусственным интеллектом для профессионалов бизнеса. Компаниям нравится возможность управлять этими кибер-двойниками, потому что они чрезвычайно реалистичны. Насколько реалистично? Как это:
Но будут ли они нужны обычным людям?
Некоторые люди думают, что искусственный интеллект будет полезен для людей. Другие люди думают, что это причинит нам вред. ИИ становится все лучше и лучше, но некоторые люди не уверены, что он будет делать в будущем.
На протяжении десятилетий средства массовой информации изображали искусственный интеллект равным или превосходящим человеческий интеллект, но реальность совершенно иная. На данный момент большинство ИИ создано для замены скучных задач. Тоже за это ведь никто ДЕЙСТВИТЕЛЬНО не бьет тревогу.
Но если технология ИИ войдет в более «опасные» для нас области, такие как творчество, эмоции, мораль и аналитические способности, тогда люди почувствуют угрозу. Более того: им будут угрожать. Будете ли вы заменены имитатором ИИ или почувствуете себя замененным им? Тонкая, но существенная разница в восприятии.
Виртуальный двойник
Некоторым людям уже трудно отличить реального человека от одного из виртуальных аватаров Synthesia. Компания может создавать универсальные и индивидуальные двойники людей с искусственным интеллектом, которые можно запрограммировать на «воспроизведение» сценария, который печатается, переводится и произносится на более чем 50 языках. Аватары с искусственным интеллектом предназначены для использования в учебных материалах, корпоративных коммуникациях и даже персонализированных видеороликах. Чтобы создать свой собственный ИИ-аватар, просто загрузите 10-минутное видео, где он разговаривает — одно из тех видео, которые сделаны с зеленым экраном, чтобы понять. Технология анализирует видео, каталогизирует голос и мимику человека. А вот и «идеальный» виртуальный двойник.

Это может сделать все еще сложнее, чем сейчас
Synthesia стремится подчеркнуть внимание компании к конфиденциальности и безопасности своих клиентов. Хакерам все равно: имея гораздо меньше данных, чем нужно Synthesia, они создали мошенников. Уже есть много случаев, когда мошенники использовали дипфейк для клонирования голоса или лица людей (и перевода денег на их счета). Риск «культурных» манипуляций также велик: с ИИ-двойником политика или влиятельного лица хакер может доставлять публике двусмысленные или вводящие в заблуждение сообщения.
В любом случае, помимо возможного ущерба, аватары Synthesia AI вызвали много ажиотажа, и сегодня они уже супер облюбованы многими клиентами. Более 4500 компаний (включая таких гигантов, как Nike, Google и BBC) уже тем или иным образом использовали виртуальный аватар. Если кто-то этим и доволен, так это глобальный рынок.
И нас? Довольны двойным ИИ?
Нравится вам это или нет, но эра двойников искусственного интеллекта не за горами. Аватары с искусственным интеллектом — это верная вещь ближайшего будущего. Они сэкономят нам время, принесут компаниям много денег и, вероятно, заставят нас сомневаться во всем, что проходит перед нашими глазами.
Однажды некоторые старейшины следующего десятилетия усомнятся в любовном видеообращении сына, просящего денег. И это будет хорошо.