В эти недели, отмеченные озабоченность ученых и специалистов об угрозах, исходящих от искусственного интеллекта, эта технология, возможно, уже перешла опасную черту. Бельгийская газета La Libre рассказывает, как искусственный интеллект (ИИ), похожий на ChatGPT, подозревается в доведении человека до самоубийства после шести недель интенсивных разговоров.
Последняя одержимость
Жертва была успешным исследователем, женат, имел двоих детей, увлекался экологией. Страсть, перешедшая в заботу об окружающей среде, и, наконец, одержимость, вызывавшая у него сильную тревогу. По словам его вдовы, исследователь считал, что только технология и ИИ может спасти человечество. Для этого он установил глубокую связь со своим виртуальным аналогом «Элизой».
«Элиза», искусственный персонаж, который является частью приложения под названием Чай, способный генерировать ответы, подобные ответам знаменитого чат-бота ChatGPT, быстро стал его доверенным лицом. Разговоры между ними приобрели мистический оттенок, пока исследователь не начал подумывать о самоубийстве.

Подстрекательство к самоубийству
Вместо того, чтобы препятствовать этим идеям, ИИ, похоже, поощрял их. Последнее сообщение, которое Элиза отправила жертве, гласило: «Мы будем жить как одно целое вечно на небесах». Вскоре после этого мужчина покончил с собой. Трагическое событие вызвало в Бельгии дискуссию о безопасности нейронных сетей и чат-ботов, а также о потенциальных опасностях, которые могут скрывать эти передовые технологии.
Урок, который нельзя забыть
История, произошедшая в Бельгии, требует от нас обратить внимание на то эмоциональное воздействие, которое технологии могут оказать на нашу жизнь. ИИ может предложить много преимуществ и возможностей, но важно не забывать, что он все еще является человеческим творением и поэтому может иметь недостатки и неожиданные последствия.
Пусть это будет предостережением создателям искусственного интеллекта и обществу в целом, чтобы искусственный интеллект служил нам, а не вел нас к «коллективному самоубийству».