Появление искусственного интеллекта, враждебного ИИ и его доминирование над человечеством было центральной темой дискуссий с прошлого века.
Из книги Э. М. Форстера «Машина останавливается», 1909 г. до недавнего сериала «Мир Дикого Запада» и саги «Терминатор» наше коллективное воображение уже рассмотрело эту гипотезу. И он считал, что появление враждебного ИИ будет кровавой бойней.
Однако эта проблема может еще какое-то время оставаться гипотетической. Ученые и инженеры серьезно обеспокоены тем, что это «обгон» между человеческим и искусственным интеллектом (который должен привести к технологической сингулярности, которой опасаются трансгуманисты) является величайшей человеческой ошибкой.
Современные тенденции демонстрируют нам настоящую «гонку вооружений» за получение этой технологии, которая дала бы огромное конкурентное преимущество. Реальный вопрос, при ближайшем рассмотрении, становится следующим: как остановить эту необузданную гонку, не приняв особых рассуждений? Как мы можем позволить более гармоничное развитие ИИ, который уважает свою собственную «этику» и параметры безопасности?
Развитие супер искусственного интеллекта сопряжено с двумя проблемами, поэтому вы не станете враждебным ИИ.
Первая задача: единство цели. Этот ИИ должен иметь в памяти (разуме?) те же цели, что и человечество. Без него ИИ мог бы «по рассеянности» уничтожить человечество, оценив его как бесполезную излишество или препятствие, которое необходимо устранить.
Второй вызов: взаимность. Это политическая проблема, она заключается в обеспечении того, чтобы преимущества ИИ не доходили до небольшой элиты, вызывая пугающее социальное неравенство.
При нынешней модели «гонки вооружений» любая разработка ИИ имеет тенденцию игнорировать эти две проблемы, чтобы добиться успеха. Это делает опасность рождения враждебного ИИ по-настоящему конкретной.
Возможные решения
Необходимы национальные политики, которые предотвращают необузданную конкуренцию, уменьшают беспорядок в компаниях и организациях, разрабатывающих ИИ, и устанавливают посты безопасности для тех, кто хочет конкурировать. Меньше битвы и больше правил означает меньшее давление и больше внимания к безопасности.
Предложение практических инициатив, позволяющих избежать появления враждебного ИИ, является изучение исследователи Вим Науде и Никола Димитрий. Текущая картина описана с точностью, и она начинается сразу с опровержения: как ни странно, конкурентов уже немного, и это, однако, не гарантирует безопасность.
Группы и организации из США, Китая и Европы немногочисленны из-за огромных затрат на разработку ИИ, но они по-прежнему гиперконкурентны.
По этой причине, другие стратегии были бы полезны для национальных государств
Государства обязаны «успокоить» борьбу, предложив контракты, связывающие их с как можно большим количеством субъектов. Больше денег, даже больше на развитие ИИ, но при определенных условиях безопасности.
Они также могут предложить помощь тем, кто хочет разработать технологии «сдерживания» развития ИИ, предполагая, что даже самый умный и враждебный из них может иметь слабости и не быть полностью неуязвимым.
Кроме того, сотрудничество может поощряться путем изменения налогов и стимулов в пользу тех, кто решит сотрудничать.
Общее благо
В дополнение к этим решениям (которые более подробно поясняются в исследовании) есть еще одно важное решение — украсть это месторождение у частных лиц. Как и в случае с атомной энергией или другими технологиями и ресурсами, которые считаются выгодными и опасными для всех, ИИ также следует считать общим благом и защищать, чтобы он не пошел неверным путем.
На данный момент никто ни в чем не уверен. Возможная враждебная природа самого ИИ является предметом дискуссий. По мнению некоторых ученых, «бунт» творения против творца никогда не произойдет. Для многих других произойдет слияние людей и ИИ, мы будем не уничтожены, а улучшены.
В любом случае, наша планета и человечество получат огромную выгоду от ИИ. и знаки уже видны сегодня.