В феврале прошлого года OpenAI объявил, что разработал алгоритм, способный писать абсолютно правдоподобные сообщения о спаме и фальшивых новостях.
В то время команда приняла решение не выпускать его, поскольку оно считалось слишком опасным. По этой причине OpenAI решила начать программу осторожного исследования, распространяя только части алгоритма для написания фейковых новостей и оценки эффектов.
Сегодня группа утверждает, что пересмотрела оценку риска и не обнаружила чрезмерных возможных сбоев. Для этого он решил выпустить на публику полный код алгоритма «лжеца».
Искусственный интеллект, получивший название GPT-2, изначально был разработан для ответа на вопросы, перевода текстов и сортировки контента. Затем исследователи поняли (с немалой долей удивления), что система также может служить для распространения огромного количества дезинформации в Интернете.
Ложная сигнализация? Может быть.
К счастью, использование, сделанное в течение периода мониторинга, было намного более умеренным: алгоритм использовался для повествовательных структур и текстовых видеоигр.
В официальном сообщении о публичном распространении механизма OpenAI надеется, что это искусственный интеллект Он может служить для построения моделей распознавания текста, чтобы найти в своей сети поддельные новости. «Мы используем эту модель, чтобы помочь поиску найти краткий текст», читайте на сайте.
Идея о том, что существует ИИ, способный создавать гигантскую массу фейковых новостей, которые нелегко опровергнуть, раздражает, но История указывает нам, что такие технологии появляются, хотим мы этого или нет.
Хорошо бы, чтобы OpenAI немедленно поделился своей работой, чтобы у исследователей было больше времени и возможностей для выявления инструментов, способных бороться или, по крайней мере, распознавать искусственно созданные тексты. Однако лучше поздно, чем никогда.