Этот пост является частью «Periscopio», информационного бюллетеня Linkedin, который каждую неделю посвящен темам Futuro Prossimo, и заранее публикуется на платформе LinkedIn. Если вы хотите подписаться и просмотреть его, найти все это здесь.
The Washington Post в прошлую субботу сообщил заявления инженера Google отстранили от должности 6 июня за нарушение соглашений о конфиденциальности компании Palo Alto. По сути, инженер Блейк Лемуан организовал «частные» чаты между собой и чат-ботом с искусственным интеллектом, который продемонстрировал то, чего многие эксперты опасались: этот ИИ станет разумным.
Это сильные заявления эксперта отрасли, а не просто какого-то парня. И они визуализируются после сотен взаимодействий с передовой и беспрецедентной системой искусственного интеллекта под названием ЛаМДА. Но это правда? Действительно ли этот ИИ стал разумным?
О чем мы говорим
LaMDA означает «Языковая модель для диалоговых приложений». Это одна из тех систем искусственного интеллекта, которые могут отвечать на письменные запросы после обучения на больших объемах данных.
Системы становились все лучше и лучше, отвечая на вопросы, и писали все более и более по-человечески. Буквально в мае прошлого года сама Google представила LaMDA в его официальном блоге назвав ее «способной писать на бесконечное количество тем».
Да, но разумен ли он?
После заявлений инженера компания Google попыталась подлить воду в огонь, опровергнув интервью, появившееся в Washington Post. «Наша команда, — написала вчера Big G, — рассмотрела опасения Блейка и сообщила ему, что доказательства не подтверждают его утверждения». Этому поддержали несколько экспертов по искусственному интеллекту: одни обоснованно отвергли этот тезис, другие использовали его как пример нашей склонности приписывать машинам человеческие качества.
Примерно так же, как мы спорим с мышкой, так сказать.
Однако это не шутка. Такое нельзя отбрасывать вот так. И не из-за опасений таких людей, как Илья Суцкевер («ИИ становятся разумными»), Юваль Харари («ИИ сможет взламывать людей»), Или Мо Гавдат («Исследователи ИИ играют в создание Бога»).
Вера в то, что ИИ Google может быть разумным, очень важна, поскольку она подчеркивает как наши страхи, так и наши ожидания относительно потенциала этой технологии.
Однако пока это ошибочное мнение
Разработка и использование передовых компьютерных программ, обученных на огромных объемах данных, вызывает множество этических проблем. Однако в некоторых случаях о прогрессе судят по тому, что может произойти, а не по тому, что достижимо в настоящее время.
На данный момент, по мнению практически всех ведущих мировых ИТ-экспертов, вывод один: нет, ИИ Google совсем не близок к разумному. Просто он лучше выглядит, сопоставляя образцы языка с похожими вещами, которые он находит в почти бесконечном хранилище предложений.
Вы должны думать об этом как о сверхмощной версии программного обеспечения для автозаполнения, которое есть на смартфоне. Хорошо: супер-супер-супермощный. Однако никто не должен путать это с разумностью.
Однако сами разработчики ИИ в наши дни разыгрывают авантюру, вызывая тревогу у людей. Их заявления, продиктованные отчасти шоком от того, что впервые увидели потенциал этой технологии, а отчасти также для их продвижения, имеют большой резонанс в СМИ.
ИИ Google не разумен
Он сканировал датчик Блез Агера-и-Аркас, вице-президент Google Research, он написал в статье для Economist что, когда он начал использовать LaMDA в прошлом году, ему все больше и больше казалось, что он разговаривает с чем-то разумным. Понятное изумление, даже тонкий страх.
Однако на данный момент LaMDA прошла 11 различных процессов проверки на основе принципов искусственного интеллекта. Она также подвергалась множеству тестов на способность выдвигать утверждения, основанные на фактах. Что-либо. Это не разумно.
Это ничего не умаляет необходимости развивать искусственный интеллект в соответствии с этикой и моралью. Некоторые, если честно, так говорят разработав ИИ, непосредственно ОБОРУДОВАННЫЙ моралью, но это другое дело.
Основная обязанность исследователей, если они действительно заботятся о прогрессе этой технологии, — не антропоморфизировать ее проявления. Прежде всего, не стоит слишком тревожить общественное мнение, во всяком случае, сохраняйте бдительность, чтобы иметь возможность «затормозить», как только появятся реальные свидетельства искры самосознания.
ЕСЛИ когда-либо будет. Что ты говоришь?