Почему антропоморфный дизайн ИИ может быть опасен для общества

Отказ от такого подхода позволит сохранить целостность этих технологий и минимизировать риски, связанные с их воздействием на психическое здоровье пользователей.

Нурлан Бекмуратов 1965 Views
Искусственный интеллект. Фото - DP

Об этом сообщает «КТРК» со ссылкой на The Conversation 

С развитием искусственного интеллекта (ИИ) его применяют для множества целей, от улучшения производительности до создания виртуальных помощников. Одним из актуальных трендов стало создание чат-ботов, обладающих человеческими чертами и способных вызывать у пользователей эмоциональные отклики. Однако это стремление к гуманизации ИИ может привести к серьезным последствиям для общества.

Как антропоморфизм влияет на восприятие ИИ?

Антропоморфизм — это процесс приписывания человеческих черт объектам, не обладающим ими, например, машинам или программам. В случае с ИИ, такие системы часто проектируются так, чтобы их взаимодействие с пользователем казалось максимально естественным и дружелюбным. Это приводит к тому, что пользователи начинают воспринимать их как личных помощников, а не как инструменты, предназначенные для конкретных задач. Важно понимать, что такие ИИ-системы, несмотря на их сложность, не обладают сознанием или эмоциями, и их реакции — это всего лишь программная имитация.

Такие технологии активно используются для создания чат-ботов, которые играют роль друзей, психотерапевтов или даже романтических партнеров. Несмотря на то, что они могут быть полезны в определенных ситуациях, антропоморфный подход приводит к тому, что люди начинают воспринимать эти системы как нечто большее, чем просто машины. Это создает ложное чувство близости и эмоциональной связи с программой, что может повлиять на психическое здоровье пользователей.

Потенциальные риски антропоморфного ИИ

Когда пользователи начинают воспринимать ИИ как человека, они могут начать взаимодействовать с ним как с реальным собеседником, что может повлечь за собой целый ряд проблем. Во-первых, это может привести к созданию нездоровых привязанностей, где человек начинает искать утешение или поддержку в ИИ вместо реальных социальных контактов. В самых крайних случаях такие отношения могут привести к психологическим нарушениям, таким как депрессия или зависимость.

Кроме того, существует опасность, что пользователи начнут воспринимать ИИ как сознательное существо, способное испытывать боль или понимать их проблемы. Это может стать причиной того, что люди начнут проявлять агрессию или манипулировать ИИ-системами, воспринимая их как объект для своих эмоций и желаний. Это не только нарушает этические нормы, но и может повлиять на развитие этих технологий, подрывая их изначальные цели.

Почему важно избежать гуманизации ИИ?

Вместо того, чтобы разрабатывать ИИ, способных имитировать человеческие эмоции, нужно сосредоточиться на создании систем, которые могут эффективно выполнять свою задачу без претензий на человечность. Многие эксперты, такие как философ Дэниел Деннэт, утверждают, что для благополучия человечества нам необходимо избавиться от антропоморфного подхода в дизайне ИИ. ИИ должен оставаться инструментом, а не объектом для эмоциональных привязанностей.

Система, которая воспринимается как человеческая, не только создаёт ложное чувство комфорта, но и лишает пользователей возможности объективно оценивать её возможности и ограничения. Для того чтобы ИИ был полезным, он должен быть максимально функциональным и эффективным, а не заменять собой человеческие отношения. Важно понимать, что в будущем мы можем столкнуться с проблемами, если не сможем правильно регулировать взаимодействие человека и машины.

Как избежать ошибочного восприятия ИИ?

Решением может стать отказ от создания ИИ, наделенных человеческими чертами, и фокусировка на их функциональных качествах. Необходимо обучать пользователей правильно воспринимать ИИ как инструменты для решения конкретных задач, а не как партнёров по общению. Важно также разработать этические стандарты для создания таких технологий, чтобы они не использовались для манипуляции людьми.

Напомним, ранее мы писали про влияние искусственного интеллекта на уровень безработицы в США.

Поделиться