Появление искусственного интеллекта, враждебного ИИ и его господство над человечеством были центральной темой дискуссий с прошлого века.
Из книги Э. М. Форстера "Машина останавливается", 1909 г. к недавнему телесериалу «Мир Дикого Запада», проходящему через сагу «Терминатор», наше коллективное воображение уже обдумывало эту гипотезу. И он чувствовал, что появление враждебного ИИ будет бойней.
Более того, это проблема, которая еще некоторое время может оставаться гипотетической. Ученые и инженеры всерьез обеспокоены тем, что этот «обгон» между человеческим и искусственным интеллектом (который должен уступить место технологической сингулярности, которой опасаются трансгуманисты) является величайшей человеческой ошибкой.
Нынешние тенденции показывают нам настоящую «гонку вооружений» для получения этой технологии, которая дала бы огромное конкурентное преимущество. При ближайшем рассмотрении возникает реальный вопрос: как остановить эту необузданную гонку с небольшими критериями? Как обеспечить наиболее гармоничное развитие ИИ с соблюдением его «этических» параметров и параметров безопасности?
Развитие супер искусственного интеллекта сопряжено с двумя проблемами, поэтому вы не станете враждебным ИИ.
Первая проблема: единство цели. Этот ИИ должен иметь в памяти (разуме?) те же цели, что и человечество. Без него ИИ мог бы «случайно» уничтожить человечество как бесполезную мишуру или препятствие, которое нужно устранить.
Второй вызов: взаимность. Это политическая проблема, она заключается в обеспечении того, чтобы преимущества ИИ не доходили до небольшой элиты, вызывая пугающее социальное неравенство.
С нынешней моделью «гонки вооружений» любая разработка ИИ имеет тенденцию игнорировать эти две проблемы, чтобы сделать это быстрее. Это делает опасность появления враждебного ИИ действительно конкретной.
Возможные решения
Необходимы национальные политики, которые предотвращают необузданную конкуренцию, уменьшают беспорядок в компаниях и организациях, разрабатывающих ИИ, и устанавливают посты безопасности для тех, кто хочет конкурировать. Меньше битвы и больше правил означает меньшее давление и больше внимания к безопасности.
Предлагать практические инициативы по предотвращению появления враждебного ИИ — это изучение исследователи Вим Науде и Никола Димитрий. Текущая картина описана с точностью, и она начинается сразу с опровержения: как ни странно, конкурентов уже немного, и это, однако, не гарантирует безопасность.
Группы и организации из США, Китая и Европы немногочисленны из-за огромных затрат на разработку ИИ, но они по-прежнему гиперконкурентны.
По этой причине, другие стратегии были бы полезны для национальных государств
Государства обязаны «утихомирить» битву, предложив как можно большему количеству субъектов связывающие их приказы. Больше денег, даже намного больше на разработку ИИ, но при определенных условиях безопасности.
Они также могут предложить помощь тем, кто хочет разработать технологии «сдерживания» для развития ИИ, предполагая, что даже самые умные и враждебные могут иметь слабые места и не быть полностью неуязвимыми.
Кроме того, сотрудничество может поощряться путем изменения налогов и стимулов в пользу тех, кто решит сотрудничать.
Общее благо
Помимо этих решений (которые в исследовании объясняются более подробно) есть высшее решение, заключающееся в том, чтобы вырвать это поле у частных лиц. Как и в случае с атомной энергией или другими технологиями и ресурсами, которые считаются выгодными и опасными для всех, ИИ также должен рассматриваться как общее благо и защищаться, чтобы он не пошел по ложному пути.
На данный момент никто ни в чем не уверен. Обсуждается вполне возможная враждебная природа ИИ. Для некоторых ученых никогда не будет «бунта» творения против создателя. Для многих других произойдет слияние людей и ИИ, мы будем не уничтожены, а улучшены.
В любом случае, наша планета и человечество получат огромную пользу от ИИ. и знаки уже видны сегодня.