На прошлой неделе мы рассмотрели проблему паники наведенный СМИ об искусственном интеллекте. Я говорил вам, как и любой другой способ отрицать здоровые дебаты о возможностях и рисках этой технологии, которая может полностью изменить наше общество. Очевидно, есть и обратная сторона медали: очень большая группа учёных, которых совершенно не беспокоят возможные опасности. Правильно или неправильно?
Потому что есть те, кто закрывает глаза
«Вы когда-нибудь думали, что искусственный интеллект может стать причиной конца человечества?». На недавней пресс-конференции в Белом доме пресс-секретарь Карин Жан-Пьер он посмеялся столкнулся с этим вопросом. Жаль, что ответ — серьёзное «нет». Несмотря на то, что такие пионеры искусственного интеллекта, как Алан Тьюринг уже предупреждали о рисках «машинного захвата власти», многих нынешних исследователей, похоже, это совершенно не волнует. Тем не менее, ИИ развивается невероятными темпами. Так почему бы им не обсудить это больше?

Дэвид Крюгер, профессор инженерного факультета Кембриджского университета, утверждает, что причины носят прежде всего культурный и исторический характер. После различных этапов, на которых к этим технологиям возлагались чрезмерные и идеалистические ожидания (утопия или антиутопия), исследователи решили перейти к практике. По этой причине они сосредоточились на конкретных областях, таких как автономное вождение, останавливаясь, чтобы задаться вопросами о долгосрочных последствиях.
Хорошо они поступили или плохо? Что, если риски были реальными?
Основной аргумент «обеспокоенных» (заметьте, это совсем другая категория, чем «катастрофисты») — это аналогия между ИИ и людьми. Точно так же, как люди истребили другие виды в борьбе за ресурсы, искусственный интеллект может сделать с нами то же самое. Другими словами, оно могло бы заменить нас. Экономически и политически. Физически.
Эти темы кажутся огромными, почти научной фантастикой. И на самом деле, риски ИИ часто игнорируются именно потому, что их считают «ненаучными». Однако это не оправдывает отсутствие внимания. Вместо этого нам следует подходить к этим проблемам так же, как к другим сложным социальным проблемам. И здесь в игру вступает решающий элемент: финансирование. Большинство исследователей ИИ получают финансирование от технологических гигантов, что создает возможные конфликты интересов, которые могут повлиять на то, как эксперты подходят к проблемам ИИ, что приводит к отрицанию рисков, а не к объективной оценке возможных угроз.
По этой причине, вместо того, чтобы «склоняться» к одному из двух полюсов, в упражнении, которое любят большинство те, кто руководит финансами и средствами массовой информации (разделяй и властвуй), общественное мнение должно смотреть вперед, а точнее внутрь. Внутри вещей, требующих глубокого изучения темы.
Пришло время стать серьезным
Экзистенциальные риски ИИ могут быть скорее умозрительными, чем реальными, по сравнению с насущными проблемами, такими как предвзятость и фейковые новости, но основное решение одно и то же: регулирование. Пришло время начать активную общественную дискуссию и решить этические проблемы, связанные с ИИ. Все остальное — скука, точнее, серость.
Потому что мы знаем: мы не можем позволить себе игнорировать потенциальные риски искусственного интеллекта для человечества. Открытая и честная общественная дискуссия, учитывающая конфликты интересов и этическую ответственность, имеет важное значение. Только так мы сможем понять, действительно ли смех пресс-секретаря Белого дома уместен или, наоборот, является признаком опасного (это) коллективного бессознательного.