Искусственный интеллект (ИИ) уже добился огромного прогресса и имеет потенциал улучшить мир. Но может ли это действительно стать опасным? Это могло бы.
По крайней мере, это то, что я прочитал в недавней статье, опубликованной в рецензируемом журнале под редакцией исследователей из Оксфордского университета и Google DeepMind, Исследовательская команда калифорнийской компании, которая экспериментирует с новыми ИИ-решениями. Я учусь (вот ссылка) предполагает, что искусственный интеллект будет представлять серьезную угрозу существованию человечества.
Трагическая афера
Суть дела в так называемых Generative Adversarial Networks (или GAN), используемых сегодня при разработке искусственного интеллекта (если вы не знаете, что это такое, я вам все расскажу здесь). Эти системы работают с двумя элементами: одна часть генерирует изображение на основе входных данных, другая оценивает его работу. Обе стороны «бросают вызов» друг другу, постоянно совершенствуя результаты.
В своей статье исследователи DeepMind предполагают, что более умный ИИ, чем нынешние, может разработать мошенническую стратегию для получения необходимого ему «одобрения», в результате чего нанесет вред нашему виду так, как мы сегодня даже не можем себе представить.
Запретительный вызов
«В мире с бесконечными ресурсами я бы не был так уверен в нашей судьбе. В таком мире, как наш, где ресурсы ограничены, за их получение обязательно возникнет конкуренция». игра в кости соавтор исследования, Майкл К. Коэн из Оксфордского университета.
«А если конкуренция будет с чем-то, что сможет превзойти тебя практически во всем, победить будет сложно. У ИИ, борющегося за ресурсы, будет ненасытный аппетит».
Пример? Искусственный интеллект, которому поручено управлять продовольственными культурами, может найти способ обойти эту задачу. Поиск способов захватить эту энергию, игнорируя или саботируя действия, необходимые для выживания человечества.
В документе DeepMind утверждается, что в этом случае человечество застрянет в игре с нулевой суммой между своими основными потребностями в выживании и технологиями. «Проигрыш этого матча был бы фатальным», — такова суть выступления.
Даже меньше
Подводя итог, Коэн считает, что нам не следует пытаться создать настолько продвинутый ИИ, чтобы мы могли совершить этот «квантовый скачок» (нет, на данный момент их нет). Если, конечно, мы не подготовим еще и средства для управления ею.
«Учитывая наше нынешнее понимание этих технологий, — делается вывод в исследовании, — делать это было бы неразумно и не полезно». После шокирующих заявлений о вреде искусственного интеллекта (почитайте, что говорят например Юваль Харари e Мо Гавдат) это последнее исследование является еще одним важным показателем.