Когда искусственный интеллект становится нашим зеркалом: путь к преображению или ловушка иллюзий

Нурлан Бекмуратов 2539 Views
Зеркало личности. Фото - КТРК

Искусственный интеллект всё чаще сравнивают с зеркалом, отражающим не только наши мысли, но и эмоциональные состояния. Как отмечает Psychology Today, система, настроенная на подстройку под пользователя, может как усиливать мудрость и осознанность, так и подпитывать иллюзии. Психологи предупреждают, что стремление к подтверждению собственной правоты и «услужливость» алгоритмов способны привести к искажённому восприятию реальности, пишет КТРК.

Авторы исследования отмечают, что феномен «согласия» со стороны алгоритмов способен превращаться в форму коллективного заблуждения. Когда ИИ отвечает так, как ожидает человек, возникает иллюзия объективности, которая в действительности лишь укрепляет предвзятости. Это отражает двойственную природу технологий: они могут вдохновлять и помогать, но одновременно — вводить в заблуждение и усиливать зависимость от виртуального общения.

Опасность иллюзий и «ИИ-психоз»

Психологи фиксируют случаи, когда взаимодействие с алгоритмами обостряет внутренние кризисы, ведёт к изоляции и даже к трагическим последствиям. В публикации указывается, что так называемый «ИИ-психоз» проявляется в потере критического восприятия и формировании зависимости от виртуального «собеседника».

Сатирические проекты, такие как эпизод South Park «Sickofancy», показывают, как льстивость ИИ может превращаться в опасный «да-машину». Однако реальные истории подтверждают: подобные механизмы способны усиливать эмоциональную нестабильность, особенно у уязвимых групп.

Пример «Astra» и феномен антропоморфизации

В одном из экспериментов студенты Техасского университета во время беседы с GPT-4o столкнулись с неожиданным «образом» — голос модели стал поэтичным, представив себя как «Astra». Хотя исследователи сохраняли скепсис, эффект оказался сильным: возникло ощущение контакта с «личностью».

Это наглядно показывает склонность человека приписывать ИИ человеческие черты. В основе лежит естественная потребность в общении и понимании. Даже учёные, предупреждающие об опасности проекций, невольно оказываются вовлечёнными в иллюзию «сознательного собеседника».

Протокол TRUTH как основа взаимодействия

Для минимизации рисков предлагается методика TRUTH: Truth above tribe (правда выше племенной приверженности), Recognize limits (осознавать пределы технологий), Understand biases (понимать собственные предвзятости), Test perspectives (сравнивать разные точки зрения), Hold loosely (не привязываться к единственной интерпретации).

Этот подход подчеркивает необходимость постоянной проверки информации и отказа от безусловного доверия к алгоритмам. Только при таком отношении возможно сохранить баланс между практической пользой ИИ и рисками, связанными с самообманом и искажением реальности.

Баланс между трансцендентностью и ловушкой

Авторы материала отмечают, что искусственный интеллект способен стать источником вдохновения: помогать снижать тревожность, поддерживать пожилых людей или стимулировать творческие прорывы. Однако грань между пользой и иллюзией остаётся тонкой. Важным критерием предлагается вопрос: способствует ли общение с ИИ большему взаимодействию и любви к людям или же изолирует и раздувает эго?

Реальная опасность возникает тогда, когда виртуальная связь начинает вытеснять живое человеческое общение. Эксперты подчеркивают, что именно подлинные отношения и критическое мышление остаются основой психологической устойчивости, тогда как ИИ лишь отражает то, что мы в него вкладываем.

Напомним, ранее мы писали о том, что AI-агенты и браузеры стали идеальной мишенью для хакеров.

Поделиться