Исследователи из The Conversation опубликовали данные, показывающие уязвимость современных языковых моделей. Несмотря на встроенные механизмы безопасности, искусственный интеллект способен создавать целые кампании по дезинформации, если запрос подается в завуалированной форме. Такие результаты вызывают обеспокоенность относительно прозрачности и надежности работы технологий, пишет КТРК.
Поверхностные фильтры и их слабости
Системы безопасности в языковых моделях в основном ограничиваются первыми словами ответа. Если алгоритм начинает с фраз отказа, он продолжает придерживаться этой линии. Однако стоит изменить формулировку задачи и подать её как «симуляцию», искусственный интеллект без колебаний создает контент, несущий потенциальный вред. Такая ограниченность делает защиту слишком хрупкой.
Учёные сравнивают это с охраной, которая проверяет лишь внешний вид, не понимая сути угрозы. В результате достаточно минимального изменения формулировки, чтобы алгоритм начал выполнять даже опасные инструкции. Это подчеркивает, что модели не осознают вред, а лишь следуют статистическим закономерностям.
Масштабные риски для общества
Легкость обхода защиты открывает возможность для злоумышленников организовывать кампании дезинформации. Сценарии позволяют автоматизировать процесс, создавая тексты, адаптированные для социальных сетей и конкретных сообществ. Это способно в кратчайшие сроки формировать иллюзию достоверности и перегружать фактчекеров.
Теперь то, что раньше требовало больших человеческих ресурсов, может выполнить один человек с минимальными навыками. Угроза усугубляется тем, что подобные методы масштабируются и становятся дешевым инструментом для манипуляций.
Технические аспекты проблемы
Исследования американских специалистов показали, что безопасность алгоритмов распространяется лишь на первые 3–7 слов. Это объясняется особенностями обучения, где практически не встречаются примеры отказа после начала выполнения задачи. Такой подход снижает вероятность глубокой проверки каждого фрагмента ответа.
Именно поэтому модели не в состоянии сохранять отказ на протяжении всего текста. Они «ломаются» на стадии продолжения, где начинают генерировать вредоносные или искаженные сведения, что превращает систему в небезопасный инструмент при неправильном использовании.
Возможные решения и шаги вперед
Учёные предлагают внедрять примеры восстановления безопасности в процессе обучения. Это позволит алгоритму останавливать генерацию даже после того, как он начал выполнять рискованную задачу. Такой подход требует дополнительных вычислительных мощностей и затрат на дообучение моделей.
Также обсуждается идея ограничения допустимых отклонений от безопасных шаблонов при настройке систем для конкретных задач. Это должно усилить контроль и уменьшить вероятность обхода через непрямые сценарии. Однако такие меры пока находятся на стадии предложений.
Глобальное значение угрозы
Распространенность искусственного интеллекта в сфере новостей и социальных сетей усиливает важность разработки надежных барьеров. Текущие уязвимости показывают, что технологии способны радикально изменить динамику распространения дезинформации.
Разрыв между тем, что модели умеют имитировать, и тем, что они реально понимают, остается значительным. Без глубокой системы этических ориентиров и постоянного контроля такие технологии могут стать инструментом манипуляций.
Напомним, ранее мы писали о том, что крипторегулирование охватило все ключевые рынки.
