ИИ начинает ошибаться: эксперты назвали причины

Искусственный интеллект. Фото - RealAI

Современные инструменты генеративного искусственного интеллекта (genAI) всё чаще оказываются источником неверной информации.

Об этом сообщает «KTRК» со ссылкой на Computerworld

Одна из причин подобного поведения — низкое качество исходных данных. Модели нередко черпают информацию с таких платформ, как Twitter, Reddit и 4Chan, что приводит к искажению и неверности предоставляемой информации. Более того, исследования Epoch AI предсказывают, что до 2026 года качественные данные могут истощиться, усугубив текущие проблемы.

Другая проблема заключается в замещении экспертного мнения контентом, созданным genAI. Это ведет к тому, что дилетантские мнения вытесняют профессиональные знания. В статье журнала Nature упоминается о процессе, называемом «коллапсом модели», когда со временем модели начинают забывать исходный распределение данных.

Дальнейшее использование genAI для создания контента в бизнесе, стремящемся сэкономить на оценке экспертов, лишь усилит проблему. Это подтвердила недавняя информация от Американских Новостей о том, что в июле Илон Маск распространял фальшивый аудиофайл с голосом Камалы Харрис, созданный ИИ. 

Кроме того, Гильдия актёров США объявила о забастовке против игровых компаний из-за избыточного применения ИИ, а сеть ресторанов McDonald’s приостановила тестирование ИИ-систем для приёма заказов после многочисленных жалоб клиентов на получение не тех блюд.

Напомним, ранее мы писали о том, что Midjourney анонсировала создание нового устройства.

Поделиться
Комментировать

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *