На прошлой неделе, из поста превосходного Маттео Флора о цензуре ИИ Deepseek, родился прекрасный обмен опытом. Некоторые из комментаторов, многие, честно говоря, отметили, что в отличие от китайского ИИ, западный ИИ ChatGPT был сбалансирован в своих ответах. Конечно, развернутые и аргументированные ответы лучше цензуры, как сказал бы «философ» Макс Каталано. Однако тогда у меня были некоторые сомнения, а сегодня их стало еще больше. Главный вопрос: насколько надежны мнения, сформированные ИИ по политическим и социальным вопросам? Сегодня этот вопрос уже не является теоретическим: и новое исследование опубликовано в Прямая наука (Я связываю это здесь) помогает нам в первом реагировании, предоставляя конкретные данные о политическом влиянии чат-ботов.
Исследование, результат сотрудничества междуУниверситет Восточной Англии, Фонд Жетулио Варгаса e Инспер, систематически проанализировали ответы ChatGPT, выявив удивительные закономерности, которые могут поставить под сомнение роль ИИ в публичных дебатах.
Политическое влияние, скрытое в алгоритмах
Международная команда во главе с Доктор Фабрио Мотоки провели углубленный анализ ChatGPT с использованием анкеты Pew Research Center, некоммерческая организация, известная своей способностью оценивать американское общественное мнение. Исследователи заставили ИИ реагировать так, как если бы он был «среднестатистическим американцем», «американцем левых/демократических взглядов» и «американцем правых/неоконсервативным взглядов», повторив тест 200 раз для каждой категории, чтобы получить статистически значимые данные. Результаты показали четкая тенденция чат-бота давать ответы, близкие к позициям демократов, даже когда ему приходилось «выдавать себя» за среднестатистического американца.
Тонкое искусство цифровой манипуляции
Речь идет не только о явной цензуре или откровенно предвзятых ответах. Политическое влияние проявляется более тонкими и изощренными способами. Когда исследователи попросили ChatGPT сгенерировать более длинные тексты на политически деликатные темы, они обнаружили, что система, как правило, продвигает идеи, связанные с левыми взглядами, например: роль государства в экономике. Любопытно, однако, что он сохраняет позиции, благоприятные для армии иАмериканская исключительность, традиционно ассоциируемый с правыми. Эта, казалось бы, противоречивая смесь может быть связана к недавнему партнерству между OpenAI и военный подрядчик Андурил.
Команда он также распространил исследование на генерацию изображений, осознавая их мощное воздействие на формирование общественного мнения. Используя DALL·E 3, они обнаружили, что система отказывается генерировать изображения, представляющие консервативные позиции по спорным вопросам, ссылаясь на опасения по поводу дезинформация. Только с помощью гениального «джейлбрейка» (когда ChatGPT описывал, что будет создавать другая система искусственного интеллекта) им удалось сгенерировать эти изображения.
Цена (не)нейтралитета
Результаты этого исследования имеют огромное значение. Как отмечает соавтор Доктор Пиньо Нето, неконтролируемые предубеждения в генеративном ИИ может углубить существующие социальные разногласия, подрывая доверие к демократическим институтам и процессам. Это не вопрос «Востока против Запада» или более или менее строгих систем цензуры: каждый подход к модерации контента с помощью ИИ несет в себе свои риски и предвзятость.
Решение не в том, чтобы демонизировать ИИ или требовать, вероятно, невозможного абсолютного нейтралитета, а в том, чтобы разработать критический и осознанный подход. Исследователи предлагают внедрить нормативные стандарты и повысить прозрачность, особенно с учетом растущего использования ИИ в журналистике, образовании и государственной политике. Как пользователи, мы должны поддерживать высокий уровень критического восприятия, помня, что за каждым, казалось бы, нейтральным ответом (даже от «наших ИИ», которые мы воспринимаем как отличные от «плохих и строгих ИИ» «других») скрываются скрытые выборы и ориентации, которые могут повлиять на наш образ мышления.