Il будущее войны может включать передовые алгоритмы искусственного интеллекта (ИИ), способные и авторитетно оценивать ситуации и атаковать врагов. без контроля людей.
Это похоже на сценарий из научно-фантастических фильмов, таких как «Терминатор» и «Матрица». Передовая технология, позволяющая взять дело в свои руки, запустив боевых роботов во время вооруженного конфликта.

В фильмах ИИ всегда нападает на людей. В реальной жизни ИИ может помочь военным в операциях, где контроль человека замедлит выполнение миссии. Очевидным недостатком является то, что противник может использовать аналогичные передовые технологии.
И кто в конечном итоге нападет на ИИ с его боевыми роботами? Всегда люди.
Будущее военных роботов, которые решают сами
Пентагон изучает боевые сценарии, в которых ИИ будет разрешено действовать по собственной инициативе на основе заранее установленных потребностей.
Одно из таких учений было проведено недалеко от Сиэтла в августе прошлого года.

Несколько десятков военных дронов и боевых роботов похожи на танки они были развернуты с простой миссией: найти террористов, подозреваемых в том, что они прячутся между разными зданиями.
Число задействованных боевых роботов было невозможно контролировать человеку-оператору. Для этого они получили предварительные инструкции по поиску и ликвидации истребителей противника в случае необходимости. А потом они ушли.
Технические испытания автоматической войны
Имитационное учение, проводимое Агентством перспективных оборонных исследовательских проектов (DARPA), не имело реального оружия. На их место радиопередатчики, которые дроны и роботы использовали для имитации взаимодействия с враждебными объектами.
Дроны и боевые роботы были размером с большой рюкзак. Их координировали алгоритмы искусственного интеллекта, которые разрабатывали планы атак.
Некоторые из боевых роботов окружили здания, другие вели наблюдение. Одни опознали врага, другие уничтожили имитацией взрывчатки.
Это была всего лишь одна из тренировок искусственного интеллекта, проведенная для моделирования автоматизации в военных системах в ситуациях, слишком сложных и быстрых, чтобы люди могли решить.
Пентагон хочет, чтобы решение принимали военные роботы

Отчет из Wired объясняет, что в Пентагоне растет интерес к тому, чтобы дать автономному оружию некоторую степень свободы в выполнении заказов.
Человек по-прежнему будет принимать высокоуровневые решения, но ИИ может адаптироваться к ситуации на местах лучше и быстрее, чем люди.
Другой отчет Комиссии национальной безопасности по искусственному интеллекту (NSCAI) в мае этого года рекомендовал Соединенным Штатам сопротивляться призывам к международному запрету на разработку автономного оружия.

Это нежизнеспособная практика. Это бесчеловечно по форме и по существу. Как и в случае с ядерным оружием, те же алгоритмы, которые Соединенные Штаты могут использовать для управления роями дронов и боевых роботов, могут использоваться другими вооруженными силами.
Апокалипсис роботов
«Смертоносное автономное оружие, которое может получить любой террорист, не отвечает интересам какой-либо национальной безопасности», - говорит профессор Массачусетского технологического института. Макс Тегмарк, соучредитель Институт будущего жизни, некоммерческая организация, выступающая против автономного оружия.

По его мнению, боевые роботы и оружие искусственного интеллекта следует «заклеймить и запретить, как биологическое оружие».