На прошлой неделе мы рассмотрели проблему паники медиа-индуцированный искусственный интеллект. Я имел в виду способ, как и любой другой, отрицать здоровую дискуссию о возможностях и рисках этой технологии, которая может полностью изменить наше общество. Очевидно, есть и обратная сторона: очень большая группа ученых, которых нисколько не заботят возможные опасности. Правильно или неправильно?
Потому что некоторые люди закрывают глаза
«Вы когда-нибудь думали, что искусственный интеллект может стать причиной гибели человечества?». На недавней пресс-конференции в Белом доме пресс-секретарь Карин Жан-Пьер он посмеялся столкнулся с этим вопросом. Жаль, что ответ - серьезное "нет". Несмотря на таких пионеров ИИ, как Алан Тьюринг уже предупреждали о рисках «захвата власти машинами», многих нынешних исследователей, похоже, это вообще не волнует. И все же ИИ развивается с невероятной скоростью. Так почему бы им не обсудить это больше?

Дэвид Крюгер, профессор инженерного факультета Кембриджского университета, утверждает, что причины, прежде всего, культурно-исторические. После различных фаз, в которых на эти технологии возлагались чрезмерные и идеалистические ожидания (утопии или антиутопии), исследователи решили перейти к практике. Для этого они сосредоточились на конкретных областях, таких как автономное вождение, не задавая вопросов о долгосрочных последствиях.
Хорошо они поступили или плохо? Что, если риски были реальными?
Основным аргументом «озабоченности» (заметьте, это совсем другая категория, чем «предсказатели гибели») является аналогия между ИИ и людьми. Подобно тому, как люди уничтожили другие виды, чтобы конкурировать за ресурсы, искусственный интеллект может сделать то же самое для нас. Другими словами, он может заменить нас. Экономически и политически. Физически.
Это темы, которые звучат масштабно, почти как научная фантастика. И на самом деле риски ИИ часто игнорируются именно потому, что они считаются «ненаучными». Однако это не оправдывает невнимания. Наоборот, мы должны решать эти вопросы так же, как и другие сложные социальные вопросы. И здесь вступает в игру ключевой элемент: финансирование. Большинство исследователей ИИ получают финансирование от технологических гигантов, создавая возможные конфликты интересов, которые могут повлиять на то, как эксперты подходят к проблемам, связанным с ИИ, что приводит к отрицанию рисков, а не к объективной оценке возможных угроз.
По этой причине, вместо того, чтобы «склоняться» к одному из двух полюсов, в упражнении, которое больше всего нравится тем, кто руководит финансами и средствами массовой информации (разделяй и властвуй), общественное мнение должно смотреть вперед, а точнее внутрь себя. Внутренние вещи, требующие углубления темы.
Пришло время стать серьезным
Экзистенциальные риски ИИ могут быть скорее спекулятивными, чем реальными в отношении насущных проблем, таких как предвзятость и фейковые новости, но основное решение одно и то же: регулирование. Пришло время начать активные общественные дебаты и решить этические вопросы, связанные с ИИ. Все остальное — скука, даже скука.
Потому что мы знаем: мы не можем позволить себе игнорировать потенциальные риски искусственного интеллекта для человечества. Открытые и честные публичные дебаты, учитывающие конфликты интересов и этические обязанности, имеют важное значение. Только так мы сможем понять, действительно ли уместен смех пресс-секретаря в Белом доме или, наоборот, признак опасного (да-да) коллективного бессознательного.