Il будущее войны он может включать в себя передовые алгоритмы искусственного интеллекта (ИИ), обладающие способностью и полномочиями оценивать ситуации и атаковать врагов. без контроля людей.
Это похоже на сценарий из научно-фантастических фильмов, таких как «Терминатор» и «Матрица». Передовая технология, позволяющая взять дело в свои руки, запустив боевых роботов во время вооруженного конфликта.
В фильмах ИИ всегда нападает на людей. В реальной жизни ИИ может помочь военным в операциях, где человеческий контроль замедлит выполнение миссии. Очевидным недостатком является то, что противник может использовать столь же передовые технологии.
И в конце концов, кто будет атаковать ИИ своими боевыми роботами? Всегда люди.
Будущее военных роботов, которые решают сами
Пентагон изучает боевые сценарии, в которых ИИ будет разрешено действовать по собственной инициативе, исходя из заранее установленных потребностей.
Одно из таких учений состоялось недалеко от Сиэтла в августе прошлого года.
Несколько десятков военных дронов и боевых роботов похожи на танки они были развернуты с простой миссией: найти террористов, подозреваемых в том, что они прячутся между разными зданиями.
Число задействованных боевых роботов было невозможно контролировать человеку-оператору. Для этого они получили предварительные инструкции по поиску и ликвидации истребителей противника в случае необходимости. А потом они ушли.
Технические испытания автоматической войны
В симуляционных учениях, проводимых Агентством перспективных оборонных исследовательских проектов (DARPA), не использовалось настоящее оружие. На их месте появились радиопередатчики, которые дроны и роботы использовали для имитации взаимодействия с враждебными объектами.
Дроны и боевые роботы были размером с большой рюкзак. Их координировали алгоритмы искусственного интеллекта, которые разрабатывали планы атак.
Некоторые из боевых роботов окружили здания, другие вели наблюдение. Одни опознали врага, другие уничтожили имитацией взрывчатки.
Это было лишь одно из множества упражнений по искусственному интеллекту, проводимых для моделирования автоматизации военных систем в ситуациях, слишком сложных и быстро меняющихся, чтобы люди могли принять решение.
Пентагон хочет, чтобы решение принимали военные роботы
Отчет Из журнала Wired поясняется, что в Пентагоне растет интерес к предоставлению автономному оружию определенной степени свободы при выполнении приказов.
Человек по-прежнему будет принимать решения на высоком уровне, но ИИ сможет адаптироваться к ситуации на местах лучше и быстрее, чем люди.
Другой отчет Комиссии национальной безопасности по искусственному интеллекту (NSCAI) в мае этого года рекомендовал Соединенным Штатам сопротивляться призывам к международному запрету на разработку автономного оружия.
Это нежизнеспособная практика. Это бесчеловечно по форме и по существу. Как и в случае с ядерным оружием, те же алгоритмы, которые Соединенные Штаты могут использовать для управления роями дронов и боевых роботов, могут использоваться другими вооруженными силами.
Робот-апокалипсис
«Смертельное автономное оружие, которое может получить любой террорист, не отвечает интересам национальной безопасности», — говорит профессор Массачусетского технологического института. Макс Тегмарк, соучредитель Институт будущего жизни, некоммерческая организация, выступающая против автономного оружия.
По его мнению, военные роботы и оружие, оснащенное искусственным интеллектом, должны быть «заклеймены и запрещены, как биологическое оружие».