Новые поколения искусственного интеллекта становятся всё более точными, создавая тексты без ошибок и лишней вычурности. Однако профессор философии Эли Алшанецки из Университета Темпл предупреждает: когда идеально написанное эссе перестаёт отражать мышление студента, теряет смысл не только оценка, но и сам диплом. Об этом говорится в материале The Conversation, пишет КТРК.
Учёный отмечает, что проблема выходит далеко за пределы образования. В профессиях, где критическое мышление имеет решающее значение — например, в медицине, юриспруденции или журналистике — доверие держится на уверенности в том, что решения принимал человек. Когда этот элемент исчезает, исчезает и ответственность.
Кризис обучения: почему студенты теряют связь с мыслями
По данным Массачусетского технологического института, студенты, использующие искусственный интеллект при написании эссе, меньше чувствуют личную вовлечённость и демонстрируют слабые навыки письма. Многие признаются, что им становится безразлично, понравится ли преподавателю работа — ведь она не их собственная.
Университеты ищут выход: кто-то требует от студентов указывать все запросы, сделанные в чатах, кто-то вводит устные экзамены или письменные задания на бумаге. Однако ИИ способен имитировать почти любой стиль и формат, что делает традиционные способы контроля неэффективными.
Новые правила: как вернуть процесс мышления в обучение
Эли Алшанецки предлагает систему авторского протокола, которая позволит преподавателям видеть, как именно студент работал с материалом. Суть идеи — сохранить связь между рассуждениями и конечным текстом, даже если искусственный интеллект использовался как инструмент.
Например, в философских эссе можно отключить функции копирования и внешние сервисы, оставив только возможность редактировать собственные черновики. В технических заданиях ИИ может быть помощником, но студент должен будет объяснить свои шаги перед отправкой. Система создаёт цифровую «метку» — подтверждение того, что работа выполнена по заданным условиям.
Без слежки, но с доказательством авторства
В отличие от программ, отслеживающих каждое нажатие клавиши, новый подход не нарушает приватность студентов. Он не ищет признаки ИИ в тексте, а фиксирует сам процесс выполнения задания. Если работа не соответствует установленным условиям, система просто не принимает её.
Такой формат возвращает доверие преподавателей и мотивирует студентов думать самостоятельно. Краткие вопросы от встроенного ассистента вроде «Можешь ли ты объяснить эту идею понятнее?» помогают авторам осознаннее работать с текстом, а преподавателям — видеть ход их мыслей.
Граница между человеком и машиной
Похожие принципы начинают использовать и в других областях. В издательском деле уже тестируются знаки «написано человеком», а в медицине обсуждают новые стандарты ответственности для врачей, использующих ИИ. Но, как подчёркивает Алшанецки, главная цель не в запрете технологий, а в создании системы, где остаётся место человеческому суждению.
Искусственный интеллект — это не просто инструмент, а новая когнитивная среда. Чтобы жить в ней на своих условиях, необходимо строить открытые системы, которые сохраняют человеческое мышление в центре любого процесса.
Напомним, ранее мы писали про то, что учёные разработали новый микрочип-лазер, способный изменить будущее технологий.
