Этот пост является частью «Periscopio», информационного бюллетеня Linkedin, который каждую неделю исследует будущие выпуски и публикуется заранее на платформе LinkedIn. Если вы хотите подписаться и просмотреть его, найти все это здесь.
The Washington Post в прошлую субботу сообщил заявления инженера Google, отстраненного 6 июня за нарушение соглашений о конфиденциальности компании Palo Alto. По сути, инженер Блейк Лемуан распространил «приватные» чаты между ним и чат-ботом с искусственным интеллектом, которые продемонстрируют то, чего многие эксперты опасаются: этот ИИ стал бы разумным.
Это сильные заявления отраслевого эксперта, а не просто парня. И они отображаются после сотен взаимодействий с передовой и беспрецедентной системой искусственного интеллекта, называемой ЛаМДА. Но это правда? Действительно ли этот ИИ стал разумным?


О чем мы говорим
LaMDA расшифровывается как «Языковая модель для диалоговых приложений». Это одна из тех систем ИИ, которые могут отвечать на письменные запросы после обучения на больших объемах данных.
Системы становились все лучше и лучше, отвечая на вопросы, и писали все более и более по-человечески. Буквально в мае прошлого года сама Google представила LaMDA в его официальном блоге назвав его «способным писать на бесконечное количество тем».
Да, но разумен ли он?
После заявлений инженера Google попыталась подлить воды в огонь, опровергнув интервью, появившееся в Washington Post. «Наша команда, — написал вчера Big G, — изучила опасения Блейка и сообщила ему, что доказательства не подтверждают его заявления». Несколько экспертов по искусственному интеллекту поддержали его: одни решительно отвергли этот тезис, другие использовали его как пример нашей склонности приписывать машинам человеческие качества.
Немного похоже на то, когда мы сражаемся с мышью, так сказать.
Однако это не шутка. Такое нельзя отбрасывать вот так. И не из-за опасений таких людей, как Илья Суцкевер («ИИ становятся разумными»), Юваль Харари («ИИ сможет взламывать людей»), Или Мо Гавдат («Исследователи искусственного интеллекта играют в создание Бога»).
Вера в то, что искусственный интеллект Google может быть разумным, очень важна, потому что она подчеркивает как наши опасения, так и наши ожидания относительно потенциала этой технологии.


Однако пока это ошибочное мнение
Разработка и использование передовых и обученных компьютерных программ на огромных объемах данных вызывает множество этических проблем. Однако в некоторых случаях о прогрессе судят по тому, что может произойти, а не по тому, что возможно в настоящее время.
Вывод на данный момент, по мнению почти всех крупных компьютерных экспертов мира, представляется только одним: нет, искусственный интеллект Google совсем не близок к тому, чтобы быть разумным. Она просто лучше выглядит, сочетая языковые модели с похожими вещами, которые она находит в почти бесконечном наборе предложений.
Вы должны представить это как сверхмощную версию программного обеспечения автозаполнения, которое у нас есть на смартфоне. Хорошо: супер супер супер мощный. Однако никто не должен путать это с разумностью.
Однако сами разработчики ИИ в наши дни разыгрывают авантюру, вызывая тревогу у людей. Их заявления, продиктованные отчасти шоком от того, что впервые увидели потенциал этой технологии, а отчасти также для их продвижения, имеют большой резонанс в СМИ.


ИИ Google не разумен
Он сканировал датчик Блез Агера-и-Аркас, вице-президент Google Research, написал в статье для Economist что, когда он начал использовать LaMDA в прошлом году, ему все больше и больше казалось, что он разговаривает с чем-то умным. Понятно удивление, даже тонкий страх.
Однако на данный момент LaMDA прошла 11 различных процессов проверки на основе принципов искусственного интеллекта. Она также подвергалась множеству тестов на способность выдвигать утверждения, основанные на фактах. Что-либо. Это не разумно.
Это не умаляет необходимости разработки искусственного интеллекта в соответствии с этикой и моралью. Кто-то, по правде говоря, говорит разработали ИИ, НЕПОСРЕДСТВЕННО ОБОРУДОВАННЫЙ моралью, но это другое дело.
Главная обязанность исследователей, если они действительно заботятся о прогрессе этой технологии, состоит в том, чтобы не антропоморфизировать ее проявления. Прежде всего, не слишком тревожьте общественность, во всяком случае, оставаясь бдительными, чтобы быть в состоянии «нажать на тормоз», как только появится реальное свидетельство искры самосознания.
ЕСЛИ когда-либо будет. Что ты говоришь?