Об этом сообщает «КТРК» со ссылкой на HackerNoon
Искусственный интеллект (ИИ) играет важную роль в современном обществе, автоматизируя процессы, начиная от контент-модерации до рекомендаций. Однако этот технологический прогресс имеет серьёзные ограничения, особенно когда речь идет о культурной адаптации. ИИ часто обучается на англоязычных данных, что приводит к проявлению культурных предвзятостей. Это проявляется в недопонимании культурных норм, что может вызвать серьёзные ошибки в различных областях, таких как модерация контента и общественные коммуникации.
Современные ИИ-системы используют данные на английском языке в качестве основного материала для обучения, что создаёт проблемы при их применении в странах, где английский не является основным языком. Вследствие этого, многие ИИ-модели неспособны правильно интерпретировать моральные и культурные категории, что может привести к ошибкам в контекстах, требующих культурной чуткости. Примеры таких ошибок уже произошли, когда алгоритмы, ориентированные на англоязычный контент, ошибочно удаляли или продвигали контент, что приводило к общественным протестам и правовым последствиям.
Почему ИИ ошибается в интерпретации культурных норм
Одной из причин ошибок ИИ является его ограниченная способность понимать культурные различия. Модели, обученные на англоязычных данных, сталкиваются с трудностями в интерпретации культурных значений, таких как честь, уважение к власти или восприятие чистоты и нечистоты. Эти понятия в разных культурах могут иметь совершенно разные значения, что делает их трудными для обработки искусственным интеллектом. Например, уважение к старшим может быть воспринято как проявление почтения к власти в одной культуре и как знак лояльности в другой.
Ошибка в интерпретации культурных различий особенно заметна в таких сферах, как модерация контента и разработка образовательных программ. Алгоритмы ИИ, не учитывающие местные традиции и моральные нормы, могут вызывать недовольство пользователей, игнорируя важные культурные контексты. Это подтверждают многочисленные случаи, когда алгоритмы социальных сетей несправедливо блокировали или пропагандировали контент, что приводило к социальным и политическим проблемам.
Модели ИИ и их работа с моральными категориями
Исследования, проведенные в области искусственного интеллекта, показали, что ИИ лучше всего распознает универсальные моральные категории, такие как забота о других и предотвращение вреда. Однако такие категории, как чистота или уважение к власти, вызывают затруднения, поскольку они сильно зависят от культурного контекста. В одном из экспериментов, проведенных с использованием текстов песен на нескольких языках, ИИ показал высокую точность в распознавании универсальных ценностей, но не справился с более специфическими концепциями.
Системы ИИ, такие как мBERT, XLM-R и GPT-4, продемонстрировали разные результаты в классификации моральных категорий. Для универсальных категорий результаты были довольно высокими, но когда речь шла о специфичных для культуры понятиях, точность значительно снижалась. Это подчеркивает важность улучшения моделей, чтобы они могли не только распознавать общие моральные принципы, но и учитывать культурные различия.
Как решить проблему культурной слепоты ИИ
Для решения проблемы культурной слепоты ИИ необходимо разработать стандарты, которые позволят учитывать культурные особенности в процессе обучения. Предложение внедрить «Стандарт культурной интеллигентности» предполагает создание метрик, которые будут учитывать эффективность ИИ в разных культурах. Это поможет разработать системы, которые не только технически совершенны, но и культурно чутки, что особенно важно для глобального использования таких технологий.
Системы ИИ нуждаются в больше данных на разных языках и в разнообразных культурных контекстах. Для этого необходимо инвестировать в создание многоязычных и многофункциональных обучающих наборов данных, а также разрабатывать гибридные системы, которые комбинируют сильные стороны различных моделей. Важно помнить, что культурный контекст имеет решающее значение для правильной интерпретации моральных и этических норм.
Напомним, ранее мы писали о том почему антропоморфный дизайн ИИ может быть опасен для общества.
