В последние годы искусственный интеллект вышел на технологический небосклон. ИИ производит революцию в законодательстве, здравоохранении, образовании и различных бизнес-моделях.
Развитие больших данных и машинного обучения меняет наш подход к искусственному интеллекту. Риши Боммасани, Перси Лян и коллеги из Стэнфордского университета говорят, что этот сдвиг парадигмы позволил ИИ стать отличным решением для широкого спектра приложений, помимо тех, для которых он изначально был создан, таких как обработка естественного языка (NLP), используемая в чат-ботах, таких как Siri или Alexa, или классификация изображений. Однако это быстро приведет нас к кризису.
Модели ИИ обладают огромным потенциалом и в некоторых случаях могут быть отличными, но они также сопряжены со значительными рисками. «Несмотря на неизбежное внедрение этих моделей, — говорят Боммасани и его коллеги, — в настоящее время у нас нет четкого понимания того, как они работают, когда выходят из строя и каковы их возможности».
Вот почему команда решила изучить природу базовых моделей, чтобы предотвратить их будущий кризис., и их выводы они действительно интересны.
Возникающее поведение, (не) предсказуемые кризисы?
Одна из проблем этих моделей заключается в том, что их поведение является эмерджентным, а не запланированным. Поэтому не всегда возможно знать, что будут делать эти системы или когда они выйдут из строя. «Это одновременно источник научного волнения и беспокойства по поводу непредвиденных последствий», — говорят исследователи.
Другая проблема в том, что эти модели стали основой для многих других. Это означает, что их можно применять к широкому кругу обстоятельств, но при этом любая проблема остается: они наследуются всеми потомками. И ориентированная на прибыль среда стартапов и крупных компаний не обязательно является лучшим местом для изучения потенциальных проблем ИИ.
Коммерческий стимул может заставить компании игнорировать социальные последствия будущего кризиса. Я думаю о технологическом вытеснении труда, здоровье информационной экосистемы, необходимой для демократии, экологических издержках компьютерных ресурсов и продаже технологий недемократическим режимам.
Риши БоммасаниСтэнфордский университет
Золотая лихорадка
При разработке нового продукта стремление быть первым часто перевешивает все остальные соображения и ведет команды по пути, который трудно оправдать. Команда приводит пример такого поведения, оспаривая его использование. Клирвью ИИ фотографий из Интернета для разработки программного обеспечения для распознавания лиц. Это делается без согласия владельцев или хостинговых компаний. Затем Clearview продала программное обеспечение таким организациям, как полицейские управления.
Кризис и коварные последствия
Последствия кризиса от повсеместного использования моделей искусственный интеллект они могли быть еще более коварными. «Поскольку базовая модель находится в зачаточном состоянии, нормы ответственной разработки и внедрения еще не установлены», — говорят исследователи.
Все это должно измениться, и быстро. Боммасани и его коллеги утверждают, что академическое сообщество хорошо подготовлено к решению проблемы будущего кризиса идентичности ИИ. Он готов, потому что объединяет ученых из широкого круга дисциплин, не движимых прибылью. «Академические круги играют решающую роль в разработке моделей ИИ, которые способствуют социальным выгодам и смягчают возможный вред от их внедрения. Университеты также могут внести свой вклад в определение стандартов, создавая комитеты по этической экспертизе и разрабатывая свои собственные эффективные модели».
Это будет важная работа
Обеспечение справедливого и равноправного использования ИИ должно быть приоритетом для современных демократий, в том числе и потому, что ИИ потенциально может поставить под угрозу средства к существованию значительной части населения мира. Поскольку Четвертая промышленная революция быстро приближается, трудно предсказать, какие рабочие места будут защищены от автоматизации. Некоторые рабочие роли, вероятно, останутся незатронутыми автоматическим принятием решений в будущем - кризис, как уже упоминалось, необходимо предотвратить.