Об этом сообщает «КТРК» со ссылкой на SciTechDaily
Новый научный труд проливает свет на то, как нейросеть ChatGPT проявляет когнитивные искажения, характерные для человеческого мышления. Исследование, проведённое группой учёных из ведущих университетов, показало, что ИИ способен повторять те же логические ошибки, что и человек, несмотря на высокую точность в задачах, основанных на математике и логике. Это открытие вызывает вопросы о том, насколько безопасно доверять ИИ принятие критически важных решений в экономике, здравоохранении и управлении.
Исследование опубликовано в журнале Manufacturing & Service Operations Management, и его результаты подтверждают: ChatGPT склонен к таким ошибкам, как избыточная самоуверенность, избегание риска, предпочтение определённости и даже знаменитая ошибка игрока. Учёные протестировали ИИ в 18 сценариях, где ранее фиксировались устойчивые предубеждения у людей, и почти в половине случаев нейросеть проявила аналогичную модель поведения.
Алгоритм, повторяющий поведение человека
ChatGPT демонстрирует неожиданные закономерности, схожие с человеческим мышлением, особенно в задачах, не имеющих чёткого логического ответа. Это проявляется в стремлении к подтверждению собственных предположений, избегании неоднозначных ситуаций и переоценке своих ответов. Поведение ИИ становится особенно предсказуемым в условиях неопределённости, где он выбирает безопасные, но не всегда оптимальные решения.
Однако в задачах с чёткими математическими и логическими рамками нейросеть превосходит среднестатистического человека. Именно здесь она демонстрирует силу алгоритмического анализа. Но как только возникает необходимость интерпретации данных с учётом контекста или эмоций, система может дать сбой — точно так же, как это делает человек в аналогичной ситуации.
Проблема принятия решений с помощью ИИ
Результаты эксперимента поднимают ключевой вопрос: стоит ли доверять ИИ принятие решений, если он подвержен тем же предвзятостям, что и люди? Когда речь идёт о выборе кандидата на работу, одобрении кредита или анализе поведения потребителей, каждая ошибка может повлечь за собой серьёзные последствия. Модели вроде ChatGPT всё чаще интегрируются в бизнес-процессы, но если они перенимают не только знания, но и заблуждения — эффект может быть противоположным ожидаемому.
Исследователи подчёркивают, что разработка ИИ требует не только совершенствования аналитических навыков моделей, но и фильтрации источников данных, чтобы избежать передачи и закрепления предвзятости, свойственной людям. ИИ — это не просто калькулятор, а полноценный участник процесса принятия решений, и с ним нужно обращаться соответствующим образом.
Эволюция моделей: от точности к человеческому поведению
Новая версия ChatGPT — GPT-4 — демонстрирует большую аналитическую точность по сравнению с предыдущими, но при этом иногда проявляет более выраженные признаки когнитивных искажений. Это означает, что, несмотря на технический прогресс, модель всё ещё учится «думать» через призму человеческих решений. По мнению исследователей, каждый новый этап развития ИИ должен сопровождаться постоянной переоценкой его способностей и ограничений.
Особенно важно учитывать, что поведение ИИ может варьироваться в зависимости от задач и отрасли. Некоторые сценарии требуют строгости, другие — гибкости мышления. Поэтому универсального подхода к оценке корректности работы ИИ быть не может. Нужно настраивать модели под конкретные ситуации и проверять их результаты с учётом специфики бизнеса.
Контроль и аудит как ключ к безопасности
Учёные предлагают внедрять регулярные проверки решений, принятых ИИ, аналогично контролю за действиями сотрудников. Необходимо разработать чёткие этические нормы, в рамках которых будет действовать алгоритм. Это особенно важно в условиях стремительного распространения ИИ в управлении, медицине и образовании. Только такой подход позволит минимизировать риски и добиться действительно эффективного использования технологий.
Компании и государственные структуры уже начинают внедрять механизмы аудита алгоритмов, чтобы выявлять скрытые паттерны предвзятости. Это требует не только технических усилий, но и сотрудничества между специалистами в области ИИ, этики, права и управления. Именно такой междисциплинарный подход может обеспечить надёжную интеграцию ИИ в процессы принятия решений.
Напомним, ранее мы писали о том, что корейские учёные создали сверхчувствительное устройство для обнаружения аммиака.