Как будто 2020 год еще не был достаточно катастрофическим, команда ученых, политиков и инсайдеров ИИ предупреждает нас о проблемах на горизонте. 18, если быть точным. Это основные угрозы ИИ, о которых нам следует беспокоиться в ближайшие 15 лет.
Научная фантастика и популярная культура хотят, чтобы мы поверили, что наша гибель будет вызвана бунтом разумных роботов. Фактически один недавнее обучение в криминалистике показывает, что самая серьезная угроза будет больше связана с нами, чем с самим искусственным интеллектом.
Оценивая угрозы на основе потенциального вреда, прибыльности, жизнеспособности и поражения, группа определила, что deepfake, технология, которая уже существует и распространяется, представляет наивысший уровень угрозы.
Дипфейк, враг номер один
Между бунтом роботов и технологией дипфейков есть фундаментальная разница. Первый может нанести материальный ущерб. Второй — системный: он может привести к подрыву доверия к людям и самому обществу.
Самая страшная угроза со стороны искусственного интеллекта всегда может казаться чем-то далеким в будущем. В конце концов, как ИИ может навредить нам, если Alexa сегодня даже не может правильно установить таймер для пасты? Шейн Джонсон, директор Центра будущих преступлений Дауэса в UCL, который финансировал исследование, объясняет, что эти угрозы будут становиться все более изощренными и переплетаться с нашей повседневной жизнью.
«Мы живем в постоянно меняющемся мире, который создает новые возможности, хорошие и плохие», Джонсон предупреждает. «Вот почему приоритетом является предвидение будущих угроз преступности, чтобы политики и другие лица, обладающие компетенцией действовать, могли сделать это до того, как возникнут серьезные проблемы».
Авторы признают, что суждения, высказанные в этом исследовании, по своей сути спекулятивны по своей природе и зависят от нашего нынешнего политического и технического ландшафта, но нельзя игнорировать будущее этих технологий.
Как родился «плейлист» самых страшных угроз
Чтобы сформулировать свои прогнозы на будущее, исследователи собрали команду из 14 ученых в смежных областях, семи экспертов частного сектора и 10 экспертов государственного сектора.
Затем эти эксперты были разделены на группы по четыре-шесть человек и получили список потенциальных проблем, которые может создать ИИ. Сценарии варьируются от физических угроз (автономные атаки дронов) до цифровых форм угроз, таких как фишинг.
Чтобы сделать свое заключение, команда рассмотрела четыре основных характеристики атак:
Возможный ущерб
рентабельность
осуществимость
уязвимость
Для экспертов ущерб от дипфейка будет материальным, моральным и даже социальным. Они также могут нанести вред другим искусственным интеллектам (например, уклоняясь от распознавания лиц) или быть косвенными плодами (например, шантажировать людей с помощью глубокого подделки видео).
Хотя эти факторы нельзя отделить друг от друга (например, ущерб от атаки может фактически зависеть от ее осуществимости), экспертов попросили рассмотреть влияние этих критериев по отдельности.
Затем баллы различных экспертных групп были распределены для определения общих наиболее разрушительных атак, которые с помощью ИИ (или с помощью ИИ) мы сможем увидеть в следующие 15 лет.

Избалованный для выбора
Как уже упоминалось, сравнивая 18 различных типов угроз ИИ, группа определила, что манипуляции с видео и аудио в форме дипфейков являются наихудшими угрозами за всю историю.
«Люди имеют сильную склонность верить своим глазам и ушам. Вот почему аудио- и видеодоказательствам традиционно придавалось большое значение (и часто юридическая ценность), несмотря на долгую историю фотографического обмана», — объясняют авторы. «Но недавние разработки в области глубокого обучения (и дипфейков) значительно увеличили шансы на создание поддельного контента».
Возможные последствия этих манипуляций?
От людей, обманывающих пожилых людей, выдавая себя за члена семьи, до видеороликов, призванных посеять недоверие к общественным и государственным деятелям. Атаки, которые трудно обнаружить отдельным людям (а в некоторых случаях даже экспертам) и которые трудно остановить.
К другим серьезным угрозам относятся автономные транспортные средства, используемые в качестве дистанционного оружия. Интересно, что группа сочла роботов-роботов (маленькие роботы, которые могут лазить по сточным канавам, чтобы украсть ключи или открыть двери для воров-людей) как одну из наименее опасных угроз.
Худшие угрозы ИИ. Так мы закончили?
Нет, но над этим надо работать. На наших оптимистичных изображениях есть какая-то кнопка, чтобы остановить всех роботов и все злые компьютеры.
На самом деле угроза не столько в самих роботах. Это то, как мы используем их, чтобы манипулировать друг другом и причинять им вред.