Университет в Австралии ошибочно обвинил студентов в мошенничестве из-за ИИ: как это произошло и чем закончилось

Австралийский университет обвинил студентов в мошенничестве из-за ошибки ИИ, но позже признал вину и отменил массовые санкции.

Нурлан Бекмуратов 819 Views
Атрибут выпускника. Фото - Pixabay

ITC.ua сообщает, что Австралийский католический университет (ACU) по ошибке обвинил сотни студентов в академическом мошенничестве из-за системы искусственного интеллекта, которая неправильно определила тексты как сгенерированные, пишет КТРК. Ошибка вызвала масштабный скандал, в результате которого многим учащимся пришлось доказывать свою невиновность в течение нескольких месяцев, теряя карьерные и образовательные возможности.

Письма с обвинениями получили сотни студентов, в том числе выпускники, подавшие документы на аспирантуру. Им предъявили подозрения в использовании ChatGPT и других ИИ-инструментов при выполнении учебных заданий. Университет потребовал предоставить доказательства «чистоты» работы — рукописные черновики, заметки и даже историю поисковых запросов в браузере, что вызвало волну критики и возмущения.

Как детектор ИИ стал причиной массовых обвинений

Основой для всех подозрений стала система проверки на плагиат Turnitin, которая недавно внедрила функцию выявления ИИ-сгенерированных текстов. Руководство университета использовало её результаты как единственное доказательство нарушений. Однако сама компания-разработчик неоднократно подчёркивала, что данные детектора нельзя считать стопроцентно достоверными и использовать для дисциплинарных решений.

Несмотря на это, администрация ACU обвинила около 6000 студентов в мошенничестве, из которых 90% случаев касались именно ИИ. Ошибки системы привели к тому, что даже полностью написанные вручную тексты отмечались как сгенерированные. После многочисленных жалоб и давления со стороны студентов университет признал, что показатели программы были «существенно завышенными» и приостановил её использование.

Последствия для студентов и репутации университета

История одной из студенток, Мадлен, показала масштабы последствий: ей отказали в аспирантуре, а университет заблокировал доступ к оценкам. Из-за этого она не смогла устроиться на работу по специальности, потеряв несколько месяцев профессионального роста. Её случай стал публичным, и именно после таких историй ACU начал внутреннее расследование.

Около четверти всех обвинений позже были сняты. Университет официально заявил, что любые дела, основанные исключительно на данных ИИ-детектора, теперь будут немедленно закрываться. Однако для большинства студентов этот процесс занял месяцы, что серьёзно подорвало доверие к образовательной системе и репутации учебного заведения.

Почему детекторы ИИ ненадёжны и что делать дальше

Системы определения ИИ-контента часто работают односторонне: они могут ошибочно пометить оригинальный текст как сгенерированный, а созданный ChatGPT — как полностью человеческий. Такие случаи уже наблюдались и в других странах, включая Китай, где студенты научились обходить алгоритмы детекторов, используя другие модели ИИ для переписывания текстов.

Эксперты считают, что будущее академической честности требует более взвешенного подхода — сочетания человеческой экспертизы и технических инструментов. Университеты должны внедрять не только ИИ-системы контроля, но и развивать цифровую грамотность студентов, чтобы предотвратить подобные ситуации.

Напомним, ранее мы писали про то, что новая часть Battlefield побила рекорд, собрав более 747 тысяч игроков одновременно в Steam.

Поделиться