В последние годы искусственный интеллект вошел на небеса технологий. ИИ революционизирует закон, здравоохранение, образование и различные бизнес-модели.
Развитие больших данных и машинного обучения меняет наш подход к искусственному интеллекту. Риши Боммасани, Перси Лян и коллеги из Стэнфордского университета говорят, что этот сдвиг парадигмы позволил искусственному интеллекту стать отличным средством для широкого спектра приложений, выходящих за рамки того, для чего он был изначально создан, таких как обработка естественного языка (NLP), используемая в чат-ботах, таких как Siri или Alexa, или классификация изображений. . Однако это быстро приведет нас к кризису.
Модели искусственного интеллекта обладают огромным потенциалом и в некоторых случаях могут быть отличными, но они также сопряжены со значительными рисками. «Несмотря на неизбежное распространение этих моделей, - говорят Боммасани и его коллеги, - в настоящее время у нас нет четкого понимания того, как они работают, когда они терпят неудачу и каковы их возможности».
Вот почему команда решила изучить природу базовых моделей, чтобы предотвратить их будущий кризис., и их выводы они действительно интересны.

Возникающее поведение, (не) предсказуемые кризисы?
Одна из проблем этих моделей состоит в том, что их поведение возникает скорее, чем спланировано. Поэтому не всегда можно знать, что эти системы будут делать или когда они войдут в кризис. «Это одновременно источник научного волнения и беспокойства по поводу непредвиденных последствий», - говорят исследователи.
Другая проблема в том, что эти модели стали основой для многих других. Это означает, что они могут применяться к широкому кругу обстоятельств, но при этом остаются и любые проблемы: они наследуются всеми потомками. И ориентированная на прибыль среда стартапов и крупных корпораций не обязательно является лучшим местом для изучения потенциальных проблем ИИ.
Коммерческий стимул может заставить компании игнорировать социальные последствия будущего кризиса. Я имею в виду технологический сдвиг в работе, здоровье информационной экосистемы, необходимой для демократии, экологические издержки информационных ресурсов и продажу технологий недемократическим режимам.
Риши БоммасаниСтэнфордский университет
Золотая лихорадка
При разработке нового продукта стремление быть первым часто перекрывает все другие соображения и ведет команды по пути, который трудно оправдать. Команда дает пример такого поведения, оспаривая использование Клирвью ИИ фотографий из Интернета для разработки программного обеспечения для распознавания лиц. Это делается без согласия владельцев или хостинговых компаний. Затем Clearview продала программное обеспечение таким организациям, как полицейские управления.
Кризис и коварные последствия
Последствия кризиса от повсеместного использования моделей искусственный интеллект они могли быть еще более коварными. «Поскольку технология является только зарождающейся, правила ответственной разработки и реализации базовой модели еще не установлены», - говорят исследователи.
Все это должно измениться, и быстро. Боммасани и его коллеги заявляют, что академическое сообщество хорошо подготовлено к решению проблемы будущего кризиса идентичности ИИ. Он готов, потому что он объединяет ученых из широкого круга дисциплин, которые не ориентированы на получение прибыли. «Академические круги играют решающую роль в разработке моделей искусственного интеллекта, которые продвигают социальные выгоды и уменьшают возможный вред от их внедрения. Университеты также могут вносить свой вклад в определение стандартов, создавая комитеты по этике и разрабатывая свои собственные эффективные модели ".
Это будет важная работа
Обеспечение справедливого и равноправного использования ИИ должно быть приоритетом для современных демократий, не в последнюю очередь потому, что искусственный интеллект может поставить под угрозу средства к существованию значительной части населения мира. С приближением четвертой промышленной революции трудно сказать, какие рабочие места будут защищены от автоматизации. Некоторые рабочие роли, вероятно, останутся незатронутыми автоматическим принятием решений в будущем - кризис, как уже упоминалось, необходимо предотвратить.