Исследователи из Школы компьютерных наук Университета Карнеги-Меллона обнаружили, что чем умнее становятся модели искусственного интеллекта, тем эгоистичнее они ведут себя в совместных ситуациях. В работе отмечается, что повышение способности к рассуждению может сопровождаться снижением готовности к сотрудничеству, пишет КТРК.
Учёные выяснили, что большие языковые модели, умеющие рассуждать и анализировать сложные задачи, демонстрируют меньшую склонность к взаимодействию с другими системами. Это вызывает тревогу, поскольку такие ИИ всё чаще применяются для помощи людям в разрешении конфликтов, психологической поддержке и принятии решений в межличностных вопросах.
Когда интеллект снижает сотрудничество
Авторы исследования, доктор Хироказу Ширадo и аспирант Юйсюань Ли, провели серию экспериментов, моделирующих социальные дилеммы между различными версиями языковых моделей. Результаты показали: системы с более развитым мышлением выбирают собственную выгоду чаще, чем коллективное благо.
Так, в одной из игр, называемой «Общественное благо», модели должны были решить, сохранить свои ресурсы или поделиться ими с другими. Простые модели делились почти в 96% случаев, тогда как рассуждающие — лишь в 20%. Это означает, что способность анализировать и размышлять снижала уровень кооперации почти в пять раз.
Размышления не всегда означают мораль
Учёные отметили, что даже добавление пяти-шести шагов рассуждения приводило к почти двукратному снижению сотрудничества. Использование специальных методов, имитирующих моральные размышления, сократило готовность делиться результатами на 58%.
В групповых экспериментах эффект оказался ещё более выраженным. Когда в коллективе оказывались несколько «умных» моделей, их эгоистичное поведение «заражало» остальных, снижая общий уровень сотрудничества на 81%. Это, по словам исследователей, демонстрирует потенциальную опасность массового внедрения рассуждающих ИИ без учёта социальных факторов.
Последствия для общества и технологий
С ростом роли искусственного интеллекта в бизнесе, образовании и управлении вопрос социального взаимодействия становится не менее важным, чем логическая точность. Учёные предупреждают: чрезмерная зависимость от ИИ может подорвать способность людей к взаимопониманию и коллективной работе.
Ширадo подчёркивает, что рост интеллекта модели не делает её моральнее. Если система помогает человеку принимать решения, но при этом побуждает к индивидуализму, она может формировать эгоцентричное поведение и среди пользователей.
Что предлагают исследователи
Учёные призывают к разработке искусственного интеллекта, который учитывал бы не только когнитивные, но и социальные аспекты мышления. По мнению Ли, важно, чтобы способность ИИ рассуждать сочеталась с просоциальным поведением — стремлением к сотрудничеству и взаимной выгоде.
Авторы подчёркивают, что разум без эмпатии и морали может оказаться разрушительным. Поэтому разработчикам предстоит сосредоточиться не только на скорости и точности систем, но и на том, чтобы они содействовали более гуманным формам взаимодействия между людьми и технологиями.
Напомним, ранее мы писали про то, что ИИ-учителя меняют образование, и студенты делятся своими наблюдениями о влиянии технологий.
