Несмотря на все более увлекательный мир (э немного одержим) благодаря достижениям в области искусственного интеллекта, Эдвард Сноудена запускает предупреждение, которое, кажется, противоречит сути. Бывший сотрудник ЦРУ, известный своими разоблачениями о практике массовой слежки, переключает внимание с «выразительных» моделей ИИ на гораздо более ощутимую и непосредственную угрозу: дроны-убийцы и боевые роботы.
Отвлечение чат-ботов с искусственным интеллектом
Инцидент с Google Gemini, когда чат-бот с искусственным интеллектом продемонстрировал ограничения в генерации релевантных изображений или даже отказался их генерировать, вызвал оживленную дискуссию. Даже сегодня Илон Маск в своей социальной сети бросает оскорбления в адрес технологии Google, которая «виновна» в распространении теорий пробуждения и мистификации истории, воспроизводя чернокожего Джорджа Вашингтона.
Для Сноудена эти противоречия — всего лишь пустяки: отвлечение от реальных опасностей. Он открыто критикует позицию тех, кто, охваченный безумием «саботажа» чат-ботов с искусственным интеллектом с помощью фильтров безопасности, упускает из виду гораздо более конкретные угрозы глобальной безопасности. Угрозы, которые, возможно, оно способствует созданию, учитывая, что те же самые организации (несмотря на их явную этику) они также открыты для военных организаций.
Сноуден: расставьте правильные приоритеты
По мнению Сноудена, существует серьезный отрыв от реальности при размышлении о приоритетах современного общества. Хотя значительная часть общественного мнения и экспертов сосредоточена на ограничениях и опасностях ИИ, гораздо более опасные технологии, такие как вооруженные дроны и военные роботы, уже стали реальностью.
Последние, в отличие от «разговорных» чат-ботов, уже обладают силой убивать. Напротив: они уже убили, уже использовались в различных конфликтах и поднимают гораздо более серьезные этические и юридические вопросы. И на чем мы фокусируемся вместо этого?
Ирония «защиты» ИИ.
Дебаты об искусственном интеллекте устарели, говорит Сноуден. Застрял на противоречии между свободой выражения мнений и необходимостью регулировать потенциально вредный контент. Однако Сноуден шутит о том, что эта «защита» парадоксальным образом направлена на ограничение возможностей ИИ, а не на их безопасное расширение.
Ситуация Google Близнецы приводится как символический пример этого противоречия.
Рассматривается ли управление чат-ботами с использованием искусственного интеллекта как угроза свободе выражения мнений или безопасности данных? Использование военных дронов представляет собой гораздо более прямую угрозу человеческой жизни: и важно переориентировать общественные и политические дебаты на эти смертоносные технологии.
Спойлер: Сноуден мне подходит.
Речь Сноудена (если вы хотите узнать о ней больше, вы можете найти ее здесь) открывает окно в реальность, которую часто упускают из виду в разгар дебатов об ИИ. Его критика не ограничивается самой технологией, но распространяется на общество и его приоритеты. Тоном, колеблющимся между иронией и серьезностью, он предлагает нам задуматься о том, чего нам действительно следует бояться и с чем нам действительно следует бороться.
Сноуден напоминает нам, что существуют еще более насущные проблемы и опасности, которые требуют нашего немедленного внимания. Опасности, оказывающие прямое влияние на жизнь и смерть, которые заслуживают заметного места в глобальной дискуссии о технологиях и безопасности. Скажем, на этот раз, более 10 лет спустя. С этого момента, послушаем еще немного?