Il будущее войны может включать передовые алгоритмы искусственного интеллекта (ИИ) с возможностью и полномочиями оценивать ситуации и атаковать врагов без контроля людей.
Это похоже на сценарий из научно-фантастических фильмов, таких как «Терминатор» и «Матрица». Передовая технология, позволяющая взять дело в свои руки, запустив боевых роботов во время вооруженного конфликта.

В фильмах ИИ всегда нападает на людей. В реальной жизни ИИ мог бы помочь военным в операциях, где человеческий контроль замедлил бы миссию. Очевидным недостатком является то, что противник может использовать столь же передовые технологии.
И кто в конечном итоге нападет на ИИ с его боевыми роботами? Всегда люди.
Будущее военных роботов, которые решают сами
Пентагон изучает боевые сценарии, в которых ИИ разрешалось бы действовать по собственной инициативе на основе заранее заданных потребностей.
Одно из таких учений состоялось недалеко от Сиэтла в августе прошлого года.

Несколько десятков военных дронов и боевых роботов похожи на танки они были развернуты с простой миссией: найти террористов, подозреваемых в том, что они прячутся между разными зданиями.
Число задействованных боевых роботов было невозможно контролировать человеку-оператору. Для этого они получили предварительные инструкции по поиску и ликвидации истребителей противника в случае необходимости. А потом они ушли.
Технические испытания автоматической войны
В имитационных учениях, проводимых Агентством перспективных исследовательских проектов Министерства обороны США (DARPA), не использовалось настоящее оружие. Вместо них появились радиопередатчики, которые дроны и роботы использовали для имитации взаимодействия с враждебными объектами.
Дроны и боевые роботы были размером с большой рюкзак. Они координировались алгоритмами искусственного интеллекта, которые разрабатывали планы атак.
Некоторые из боевых роботов окружили здания, другие вели наблюдение. Одни опознали врага, другие уничтожили имитацией взрывчатки.
Это было всего лишь одно из учений по искусственному интеллекту, проведенных для имитации автоматизации военных систем в ситуациях, слишком сложных и быстрых, чтобы люди могли их решить.
Пентагон хочет, чтобы решение принимали военные роботы

Отчет Wired поясняет, что в Пентагоне растет интерес к тому, чтобы дать автономному оружию некоторую степень свободы при выполнении приказов.
Человек по-прежнему будет принимать решения на высоком уровне, но ИИ сможет адаптироваться к ситуации на земле лучше и быстрее, чем люди.
Другой отчет Комиссии национальной безопасности по искусственному интеллекту (NSCAI) в мае этого года рекомендовал Соединенным Штатам сопротивляться призывам к международному запрету на разработку автономного оружия.

Это нежизнеспособная практика. Это бесчеловечно по форме и по существу. Как и в случае с ядерным оружием, те же алгоритмы, которые Соединенные Штаты могут использовать для управления роями дронов и боевых роботов, могут использоваться другими вооруженными силами.
Апокалипсис роботов
«Смертельное автономное оружие, которое может получить любой террорист, не отвечает интересам национальной безопасности», — говорит профессор Массачусетского технологического института. Макс Тегмарк, соучредитель Институт будущего жизни, некоммерческая организация, выступающая против автономного оружия.

По его мнению, боевые роботы и оружие с искусственным интеллектом должны быть «заклеймены и запрещены, как биологическое оружие».