Когда-нибудь, в не столь отдаленном будущем, некоторые из ваших коллег могут стать аватарами искусственного интеллекта. Вы сами можете попросить электронного имитатора присутствовать на собраниях от вашего имени. Очаровательно, не правда ли? Да, но тоже ужасно.
Некоторое время назад я рассказывал вам о Час первый, компания, которая первой продемонстрировала реалистичные аватары. Это было меньше года назад: удивительно видеть, как быстро развивается этот сектор. Сегодня Synthesia создала ИИ-аватары для профессионалов бизнеса. Компаниям нравится возможность управлять этими кибер-двойниками, потому что они чрезвычайно реалистичны. Насколько реалистично? Как:
Но будут ли они нужны обычным людям?
Некоторые люди думают, что искусственный интеллект будет полезен людям. Другие люди думают, что он сделает нам плохие вещи. ИИ становится все лучше и лучше, но некоторые люди не уверены, что он будет делать в будущем.
На протяжении десятилетий средства массовой информации изображали искусственный интеллект равным человеческому интеллекту или превосходящим его, но реальность совсем другая. На данный момент большая часть ИИ создана для замены скучных задач. Именно поэтому, в конце концов, никто ДЕЙСТВИТЕЛЬНО не бьет тревогу.
Но если технология ИИ проникнет в более «опасные» для нас области, такие как творчество, эмоции, мораль и аналитические способности, тогда люди почувствуют угрозу. Более того: им будут угрожать. Будете ли вы заменены имитатором ИИ или почувствуете себя замененным им? Тонкая, но существенная разница в восприятии.
Виртуальный двойник
Некоторым людям уже трудно отличить реального человека от одного из виртуальных аватаров Synthesia. Компания может создавать общие, индивидуальные ИИ-двойники людей, которые можно запрограммировать на «разыгрывание» напечатанного, переведенного и устного сценария на более чем 50 языках. Аватары с искусственным интеллектом предназначены для использования в учебных материалах, корпоративных коммуникациях и даже в персонализированных видеороликах. Чтобы создать свой собственный ИИ-аватар, просто загрузите 10-минутное видео, в котором вы говорите: одно из тех видео, снятых, так сказать, на зеленом экране. Технология анализирует видео, каталогизирует голос и мимику человека. А вот и «идеальный» виртуальный двойник.
Это может сделать все еще сложнее, чем сейчас
Synthesia стремится подчеркнуть внимание компании к конфиденциальности и безопасности своих клиентов. Хакеров это не волнует: имея гораздо меньше данных, чем нужно Synthesia, они создали множество мошенничеств. Уже есть много случаев, когда мошенники использовали дипфейки для клонирования голосов или лиц людей (и переводили деньги на их счета). Риск «культурных» манипуляций также велик: с помощью искусственного интеллекта, похожего на политика или влиятельного человека, хакер может передавать публике двусмысленные или вводящие в заблуждение сообщения.
В любом случае, помимо возможного ущерба, ИИ-аватары Synthesia вызвали много ажиотажа, и сегодня их уже высоко выбирают многие клиенты. Более 4500 компаний (включая таких гигантов, как Nike, Google и BBC) уже тем или иным образом использовали виртуальный аватар. Если кого и радует это, так это глобальный рынок.
И нас? Довольны двойным ИИ?
Нравится нам это или нет, но эра ИИ-двойников надолго останется. Аватары с искусственным интеллектом — это неизбежное будущее. Они сэкономят нам время, принесут компаниям кучу денег и, вероятно, заставят нас подвергать сомнению все, что мы видим.
Однажды некоторые пожилые люди следующего десятилетия усомнятся в видеопослании о любви ребенка, просящего денег. И это будет хорошо.