Искусственный интеллект (ИИ) может произвести революцию в нашем мире. И очевидно, что это обещание сопряжено со значительным риском.
Что ж, по крайней мере, на моем когнитивном горизонте я вижу явно преобладающую пессимистическую часть дискуссии. По неведомой мне причине даже сами разработчики ИИ склонны гоняться друг за другом с "мы все умрем"только для того, чтобы хорошо зарабатывать на своих платформах.
Напротив, горстка людей, которые верят, что перспектива бума искусственного интеллекта является спасительной.
Другими словами, похоже, что у человечества есть только два варианта подхода к искусственному интеллекту:
- Мы опасаемся потенциальных негативных последствий развития развитого ИИ и поэтому пытаемся остановить его развитие;
- Мы ценим преимущества передового искусственного интеллекта и поэтому стремимся достичь этих преимуществ как можно быстрее, несмотря на риски.
В моем Неаполе эффективным синтезом была бы известная поговорка: «либо 1, либо 90». Из-за чего происходит это полное отсутствие баланса? Есть ли золотая середина?
Путь ответственности
Наше «бинарное» видение, склеротизированное социальными сетями и средствами массовой информации, которые перезапускают сенсационные заявления или апокалиптический, пренебрегайте путем. И это очень обидно, потому что это лучший путь, единственный, который может помочь нам достичь желаемых преимуществ передового ИИ: ответственного развития.
Проведем аналогию: представьте себе путешествие в некую золотую долину. Представьте себе тогда, что перед этой долиной находится своего рода неопределенное болото, возможно, населенное голодными хищниками, прячущимися в тени.
Есть ли у нас только выбор: пройти через это или убежать? Между страхом (и побегом) и безрассудством (движением вперед без мер предосторожности)? Или есть третий путь: лучше понять ситуацию и найти, сохраняя баланс, самый безопасный способ пересечь реку? Вы уже знаете ответ. Даже самые напуганные из вас знают ее. А для тех, кто сосредоточен только на «экзистенциальном риске», а не на том факте, что есть еще и «экзистенциальная возможность», я рекомендую это отражение философа и эксперта по новым технологиям, Макс Мор.
Оценка риска проходит через равновесие
Если оставить в стороне метафоры, то путь ведет к «устойчивому сверхизобилию», которого можно достичь с помощью продвинутого искусственного интеллекта, если мы будем действовать мудро и взвешенно.
И как поступить разумно? Прежде всего, закладывая основы традиционного регулирования. По мнению некоторых философов и экспертов в области новых технологий, размещение искусственного интеллекта в «двоичных файлах» снижает его способность к обучению и потенциальные выгоды. Это зависит.
В контексте ближайшего будущего, когда у нас будет все больше «локальных» и специфических искусственных интеллектов (даже полностью личные помощники), они могут и должны быть чувствительны к масштабам потенциальных сбоев. Если сбои локальны, то есть смысл допустить, чтобы эти сбои произошли. Но когда существует риск глобального исхода, потребуется другой менталитет – менталитет ответственного развития.
В двух словах: неразумно останавливать искусственный интеллект и неразумно позволять ему действовать на волю. Как уже говорилось, ни один из двух текущих путей (остановка или бегство) не приводит нас ни к чему хорошему.
Мы не должны останавливаться, мы не должны бежать
Что срочно необходимо, так это более глубокое и вдумчивое исследование различных сценариев, в которых сбои ИИ могут иметь катастрофические последствия. Мы должны оценить, какие отрасли подвергаются наибольшему риску и какой ущерб мы можем понести, а затем ввести новые «правила» (возможно, не обойти которые невозможно). как у Азимова) не переливать.
Только так мы сможем значительно повысить вероятность найти безопасный способ пересечь то болото неопределенности, которое лежит между нами и технологической Сингулярностью.