В феврале прошлого года OpenAI объявил, что разработал алгоритм, способный писать абсолютно правдоподобные сообщения о спаме и фальшивых новостях.
В то время команда решила не выпускать его, поскольку он был сочтен слишком опасным. Для этого OpenAI решила начать программу осторожного изучения, распространяя только части алгоритма для написания фейковых новостей и оценки последствий.
Сегодня группа утверждает, что пересмотрела оценку риска и не обнаружила чрезмерных возможных сбоев. Для этого он решил выпустить на публику полный код алгоритма «лжеца».
Искусственный интеллект, называемый GPT-2, изначально был разработан, чтобы отвечать на вопросы, переводить текст и сортировать контент. Затем исследователи поняли (не без особого удивления), что система может также служить для распространения огромного количества дезинформации в сети.
Ложная сигнализация? Может быть.
К счастью, использование, сделанное в течение периода мониторинга, было намного более умеренным: алгоритм использовался для повествовательных структур и текстовых видеоигр.
В официальном сообщении о публичном распространении механизма OpenAI надеется, что это искусственный интеллект Он может служить для построения моделей распознавания текста, чтобы найти в своей сети поддельные новости. «Мы внедряем эту модель, чтобы помочь исследователям найти синтетический текст», читайте на сайте.
Сама мысль о том, что существует ИИ, способный производить гигантскую массу фейковых новостей, которые нелегко отрицать, раздражает, но история показывает, что такие технологии появляются, хотим мы этого или нет.
Хорошо бы, чтобы OpenAI немедленно поделился своей работой, чтобы у исследователей было больше времени и возможностей для выявления инструментов, способных бороться или, по крайней мере, распознавать искусственно созданные тексты. Однако лучше поздно, чем никогда.