Искусственный интеллект и скрытые политические предвзятости: исследование ChatGPT

Исследование выявило скрытую политическую предвзятость в ChatGPT, которая может повлиять на общественное мнение и политику, требуя более жесткого контроля за такими технологиями.

ChatGPT. Фото - Pexels

Об этом сообщает «КТРК» со ссылкой на SciTechDaily

Новая исследовательская работа Университета Восточной Англии поднимает вопрос о политической предвзятости в генеративных моделях ИИ, таких как ChatGPT. Согласно выводам ученых, система склонна отдавать предпочтение левым взглядам и избегать консервативных точек зрения. Это может существенно влиять на общественное мнение, формируя дисбаланс в представлении политических позиций.

Исследование проводилось при поддержке Фонда Гетулио Варгаса и Инспера в Бразилии. Ученые обнаружили, что ChatGPT генерирует тексты и изображения с ярко выраженной леворадикальной ориентацией, что вызывает опасения относительно справедливости и объективности ИИ-систем. Внимание к этим проблемам нарастает на фоне повсеместного внедрения искусственного интеллекта в медиа, образование и политику.

Особое внимание исследователи уделили анализу политических предпочтений ИИ. В ходе эксперимента с реальными опросами и текстами по чувствительным темам стало очевидно, что ChatGPT склонен избегать консервативных взглядов, предпочитая формировать контент, ориентированный на левые идеи. Это несоответствие может углубить политические разделения в обществе и ослабить доверие к цифровым платформам.

Для проверки результатов, команда использовала несколько методов, включая анализ изображений, сгенерированных ИИ. Оказалось, что ChatGPT отказывается создавать правые изображения на темы, такие как расовое равенство, ссылаясь на возможную дезинформацию, несмотря на отсутствие объективных оснований для такого подхода. Эти выводы подчеркивают необходимость более строгого регулирования и прозрачности в разработке ИИ-систем.

Напомним, ранее мы писали о том, почему гуманитарное образование важно в эпоху ИИ.

Поделиться
Комментировать

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Exit mobile version