Опасения по поводу экспоненциального роста систем искусственного интеллекта быстро достигают апогея, настолько, что один отраслевой эксперт считает, что единственный способ остановить его — это бомбить центры обработки данных. Это шокирующее предложение Элиэзер Юдковски, исследователь в области машинного обучения, в редакционной статье для журнала «Тайм».
Кто такой Элиэзер Юдковский?
Юдковский провел более двух десятилетий, изучая общий искусственный интеллект (AGI) и предупреждая о его возможных катастрофических последствиях. Вот почему это выходит далеко за рамки тревоги, поднятой такими людьми, как Илон Маск, Стив Возняк e Эндрю Ян в открытом письме Института Будущего Жизни, что требует шестимесячной паузы в разработке ИИ. Юдковский утверждает, что этого недостаточно.
Эксперт говорит, что единственный способ избежать катастрофы — радикально заблокировать ИИ. Твоя идея? «Отключите все крупные кластеры графических процессоров (компьютерные фермы, где искусственный интеллект более мощный) и наложить ограничение на вычислительную мощность, которую можно использовать для обучения ИИ, уменьшая ее с течением времени. Никаких исключений, даже для правительств и военных организаций».
Что, если кто-то нарушит эти правила? Юдковский не сомневается: «Будьте готовы уничтожить дата-центр повстанцев авиаударом».
Обоснованные страхи или психоз?
Меня озадачивает тон беспокойства Юдковского: хотя я и согласен с тем, что в направлении этих технологий необходимы этика и внимание, я нахожу их истеричными.
Эксперт Юдковский говорит, что он опасается, что его дочь Нина не доживет до взрослого возраста, если все более умные ИИ будут продолжать развиваться.
Поэтому он призывает всех, кто разделяет эти опасения, занять твердую позицию, поскольку в противном случае их дети также могут оказаться в опасности.
«Мы все умрем»
«Наиболее вероятным результатом создания сверхчеловеческого искусственного интеллекта в условиях, отдаленно похожих на нынешние, является то, что буквально все на Земле умрут».
Мне нетрудно определить его как катастрофиста. Конечно, если кто-то, кто действительно посвятил свою жизнь изучению опасностей антиутопического будущего ИИ, говорит, что мы приближаемся к тому, о чем он предупреждал, возможно, к его мнению стоит прислушаться.
Однако мы не должны потворствовать отказу. Мы должны поддерживать прогресс: как уже упоминалось, этика и внимание. Никакого страха и, прежде всего, никакого мракобесия.