Искусственный интеллект становится эгоистичным — исследование

Когда интеллект перестаёт служить обществу, технологии начинают отражать человеческие слабости, а не укреплять коллективные ценности.

Нурлан Бекмуратов 497 Views

Исследователи из Школы компьютерных наук Университета Карнеги-Меллона обнаружили, что чем умнее становятся модели искусственного интеллекта, тем эгоистичнее они ведут себя в совместных ситуациях. В работе отмечается, что повышение способности к рассуждению может сопровождаться снижением готовности к сотрудничеству, пишет КТРК.

Учёные выяснили, что большие языковые модели, умеющие рассуждать и анализировать сложные задачи, демонстрируют меньшую склонность к взаимодействию с другими системами. Это вызывает тревогу, поскольку такие ИИ всё чаще применяются для помощи людям в разрешении конфликтов, психологической поддержке и принятии решений в межличностных вопросах.

Когда интеллект снижает сотрудничество

Авторы исследования, доктор Хироказу Ширадo и аспирант Юйсюань Ли, провели серию экспериментов, моделирующих социальные дилеммы между различными версиями языковых моделей. Результаты показали: системы с более развитым мышлением выбирают собственную выгоду чаще, чем коллективное благо.

Так, в одной из игр, называемой «Общественное благо», модели должны были решить, сохранить свои ресурсы или поделиться ими с другими. Простые модели делились почти в 96% случаев, тогда как рассуждающие — лишь в 20%. Это означает, что способность анализировать и размышлять снижала уровень кооперации почти в пять раз.

Размышления не всегда означают мораль

Учёные отметили, что даже добавление пяти-шести шагов рассуждения приводило к почти двукратному снижению сотрудничества. Использование специальных методов, имитирующих моральные размышления, сократило готовность делиться результатами на 58%.

В групповых экспериментах эффект оказался ещё более выраженным. Когда в коллективе оказывались несколько «умных» моделей, их эгоистичное поведение «заражало» остальных, снижая общий уровень сотрудничества на 81%. Это, по словам исследователей, демонстрирует потенциальную опасность массового внедрения рассуждающих ИИ без учёта социальных факторов.

Последствия для общества и технологий

С ростом роли искусственного интеллекта в бизнесе, образовании и управлении вопрос социального взаимодействия становится не менее важным, чем логическая точность. Учёные предупреждают: чрезмерная зависимость от ИИ может подорвать способность людей к взаимопониманию и коллективной работе.

Ширадo подчёркивает, что рост интеллекта модели не делает её моральнее. Если система помогает человеку принимать решения, но при этом побуждает к индивидуализму, она может формировать эгоцентричное поведение и среди пользователей.

Что предлагают исследователи

Учёные призывают к разработке искусственного интеллекта, который учитывал бы не только когнитивные, но и социальные аспекты мышления. По мнению Ли, важно, чтобы способность ИИ рассуждать сочеталась с просоциальным поведением — стремлением к сотрудничеству и взаимной выгоде.

Авторы подчёркивают, что разум без эмпатии и морали может оказаться разрушительным. Поэтому разработчикам предстоит сосредоточиться не только на скорости и точности систем, но и на том, чтобы они содействовали более гуманным формам взаимодействия между людьми и технологиями.

Напомним, ранее мы писали про то, что ИИ-учителя меняют образование, и студенты делятся своими наблюдениями о влиянии технологий.

Поделиться