Мадлен заканчивала стажировку по сестринскому делу, когда ей пришло электронное письмо с темой «Проблема академической добросовестности». Внутри было (ложное) обвинение в использовании искусственного интеллекта для написания задания. Ничего подобного она не делала, но это не имело значения. Университет получил отчёт, сгенерированный другим ИИ, и этого было достаточно. Шесть месяцев спустя она всё ещё была там, объясняя, почему, кто знает, возможно, система допустила ошибку.
Между тем, в её резюме было указано «ожидание результатов», и ни одна больница не хотела её принимать. Это идеальное короткое замыкание: ИИ, который… обвиняет студентов в использовании ИИ, основываясь на другом ИИ, который работает неэффективно. И платят люди, а не алгоритмы. Это не «Чёрное зеркало», и я ничего не выдумал: это действительно произошло.
Шесть тысяч случаев, девяносто процентов из которых неверны.
L 'Католический университет Австралии В 2024 году зафиксировано около 6.000 случаев предполагаемого плагиата. В 90% случаев речь идет об искусственном интеллекте. Проблема? Значительное количество этих студентов не совершили ничего противозаконного. Все обвинения ложные. Детектор, используемый университетом, TurnitinОн просто решил, что эти тексты слишком хорошо написаны, чтобы принадлежать человеку. В теории это был комплимент, а на практике – осуждение.
Таня Бродли, вице-канцлер Университета штата Аризона (ACU), заявила телеканалу ABC, что эти цифры «существенно завышены». Она признала рост числа случаев академических нарушений, но отказалась комментировать количество студентов, ставших жертвами ложных обвинений. Четверть всех направлений была архивирована после расследования. Но потерянные месяцы не восстанавливаются.
Случай Мадлен не единичный. Сотни студентов должны были предоставить полную историю просмотров, рукописные заметки и подробные обоснования. о том, чего они не сделали. Как рассказал один студент отделения неотложной медицины телеканалу ABC:
«Они не полиция. У них нет ордеров на запрос истории просмотров. Но когда вам грозит повторный курс, они делают то, что хотят».
Turnitin — система, которая признает свою ненадежность
На своем собственном сайте, Turnitin предупреждает, что Детектор ИИ «не должен использоваться в качестве единственного основания для враждебных действий против учащегося»Компания признала, что уровень ложноположительных результатов на уровне документов составляет менее 1% для документов с содержанием ИИ 20% и более. Однако на уровне приговора ставка возрастает до 4%. А когда текст сочетает в себе человеческий текст и искусственный интеллект, проблемы множатся.
Один студент рассказал ABC: «Это ИИ, обнаруживающий ИИ, и почти все мое эссе было выделено синим цветом: 84% предположительно написано ИИ». Его текст был совершенно оригинальным. Но алгоритму было всё равно.
Университет Вандербильта полностью отключил детектор ИИ Turnitin. ещё в 2023 году, ссылаясь на сомнения в его надёжности. Университет подсчитал, что при ежегодном подаче 75 000 статей и частоте ложноположительных результатов «всего» 1% Около 750 студентов были ложно обвинены. Слишком много.
Проблема не только техническая
Австралийский университет знал о проблемах системы более года, прежде чем вывел ее из эксплуатации в марте 2025 года. Внутренние документы, просмотренные ABC показать, что персонал был в курсе«ограниченная надежность инструмента» и «неспособность отличить редактирование с помощью ИИ от полноценной генерации»Однако ложные обвинения продолжались еще месяцами.
Это явление не ограничивается Австралией. В Италии несколько университетов внедряют современное программное обеспечение для борьбы с плагиатом.Университет Падуи внедрил новый, более совершенный сервер антиплагиата. Университет Вероны интегрировал программное обеспечение, способное выявлять искусственно сгенерированные тексты.Университет Феррары Он отменил весь экзамен по психобиологии, обнаружив, что некоторые студенты использовали ChatGPT, без возможности установить виновных.
Одна деталь, которую я бы не упустил из виду: Стэнфордское исследование Выяснилось, что ИИ-детекторы проявляют предвзятость в отношении людей, для которых английский язык не является родным. Алгоритмы, как правило, чаще помечают тексты, написанные иностранными студентами, как «сгенерированные ИИ». Эта проблема усугубляет дискриминацию.
Ложные обвинения в плагиате: парадоксальная ситуация
Университеты активно внедряют искусственный интеллект. Многие у них есть партнерские отношения с технологическими компаниями интегрировать инструменты ИИ в процесс обучения. А потом обвиняют студентов в использовании тех же инструментов. Посыл сбивает с толку: ИИ — это будущее, но если вы его используете, вы — мошенник.
В то же время, согласно итальянскому опросу75% учащихся, сдававших выпускные экзамены в 2023 году, признались, что использовали инструменты ИИ для подготовки к ним. 18% учащихся в возрасте от 16 до 18 лет используют ИИ в обычных учебных занятиях. Технология существует, доступна, и учащиеся её используют. Ожидать, что они не будут этого делать, нереально.
Что происходит
Как уже упоминалось, система «антиплагиата» была отменена, а личные дела постепенно (и слишком медленно) были заархивированы. Например, для Мадлен уже слишком поздно. Она потеряла полгода, возможность работать и доверие к системе. «Я не знала, что делать. Вернуться в школу? Сдаться и заняться чем-то другим, кроме работы медсестрой в больнице?» — сказала она в интервью ABC.
Этот случай показывает, что происходит, когда мы делегируем принятие решений системам, которые не до конца понимаем. Алгоритмы могут быть полезны, но они не безошибочны. И когда они ошибаются, расплачиваться приходится людям. Не искаженными данными или просчетами, а разрушенной карьерой и потерянными годами. Искусственный интеллект может казаться более сострадательным, чем люди, в определенных контекстах, но когда дело доходит до ложных обвинений, это лишь показывает, насколько опасно доверять ей решения, способные изменить жизнь.
Как всегда, проблема не в ИИ, а в слепой вере в него некоторых людей.