Об этом сообщает «КТРК» со ссылкой на The Conversation
Распространение дезинформации часто основано на мастерски выстроенных историях, которые влияют на восприятие аудитории и формируют общественные настроения. Неверные или специально искажённые нарративы могут вызвать массовую панику, изменить политические предпочтения или подорвать доверие к важным институтам. Понимание того, как истории влияют на людей, помогает исследователям разрабатывать системы защиты и выявлять организованные кампании манипуляций.
Искусственный интеллект выступает новым мощным инструментом в борьбе с дезинформацией. Современные алгоритмы за счёт машинного обучения способны анализировать не только текстовые данные, но и структуру повествования, вычленять культурные особенности и отслеживать нелинейные временные последовательности. Это позволяет не просто фиксировать фактические ошибки в сообщениях, но и распознавать скрытые мотивы авторов, создающих фейковые истории.
Опасность манипулятивных историй
Истории, заполненные эмоционально окрашенными образами, способны вызывать сильную реакцию даже у критически настроенной аудитории. Манипуляторы используют узнаваемые архетипы, героев и злодеев, чтобы установить связь с читателем и направить его доверие в нужное русло, что может полностью исказить восприятие реальности. Социальные сети предоставляют отличную площадку для быстрой и широкой дистрибуции таких нарративов, превращая одиночные фейки в тренды и массовые заблуждения.
Злоумышленники нередко объединяют несколько каналов распространения: от ботнетов и фейковых аккаунтов до координированного запуска тематических групп в мессенджерах. Это создаёт эффект синергии: каждая новая публикация подкрепляет предыдущую — аудитория начинает воспринимать искусственно сформированное мнение как общественную норму. Поэтому важно не только фиксировать отдельные ложные утверждения, но и распознавать целые цепочки сюжетов, связывающих несколько информационных фрагментов в единый манипулятивный поток.
Анализ имен пользователей и контекста
Социальные сети дают манипуляторам возможность создавать поддельные аккаунты с тщательно подобранными именами, которые выглядят как реальные люди из нужных социальных групп или отраслей. Анализ имени пользователя (handle) может выдать подсказки о гендере, местоположении, профессиональной принадлежности и даже эмоциональной окраске ника. Например, псевдоним @AnnaJournalistNY создаёт впечатление авторитетного журналиста из Нью-Йорка, тогда как @SunnyNYC больше ассоциируется с обычным пользователем без особого веса или статуса.
ИИ-алгоритмы обучаются различать такие нюансы, сравнивая графемы и их частотные ассоциации с реальными данными о предпочтениях целевой аудитории. Когда учётные записи выбирают одинаковые способы построения ников, стремясь слиться с настоящими сообществами, системы нарративного анализа выявляют шаблоны — указывает на аномальную концентрацию «подходящих» имён, созданных для повышения доверия к фейковым сообщениям. Такой подход позволяет снижать количество ложных позитивных срабатываний в процессе проверки подлинности аккаунтов.
Выделение временных линий и нелинейный рассказ
Нарративы дезинформации часто строятся нелинейно: ключевое событие может показаться в начале поста, а необходимые контексты появляются позже или вообще опускаются. Для человека это является привычным способом подачи истории, но для ИИ-платформы определить хронологию и проверить согласованность фактов становится сложной задачей. Распознавание временных последовательностей требует обучения на примерах текстов, где события перемешаны искусственно.
ИИ-системы анализируют маркеры времени, упоминания о прошлых событиях и детали, позволяющие восстановить истинный порядок. Алгоритмы извлекают события из фрагментов текста, сопоставляют их с внешними источниками и выстраивают «пазл» происходящего. Когда последовательность оказывается логически несовместимой, это сигнал к дополнительной проверке. Таким образом, вычислительные модели учатся различать сложные нарративные структуры, что делает затруднительным использование нелинейных рассказов в качестве эффективного инструмента манипуляции без риска разоблачения.
Культурная грамотность в борьбе с фейками
Каждая культура обладает собственными символами, ассоциациями и контекстами, которые могут по-разному восприниматься разными аудиториями. Одни образы вызывают положительные эмоции в одной стране и негативные в другой. Например, фраза «белое платье» в западной культуре ассоциируется с радостью и торжеством, а в некоторых восточных странах символизирует траур. Дезинформаторы целенаправленно используют такие несоответствия, чтобы вызвать нужную реакцию у выбранной группы пользователей.
Обучение ИИ-корпусов должно включать обширные данные о локальных культурных контекстах, чтобы распознавать символический подтекст и эмоциональную окраску. Модели анализируют не только буквальное значение текстов, но и культурные коды, заложенные в словах и образах. При обнаружении резонанса с определённым сообществом алгоритмы выявляют целенаправленное использование культурных мемов. Культурная чувствительность помогает системам снижать ложные срабатывания при проверке нарративов, созданных для «шокового» эффекта или усиления эмоционального отклика.
Кому нужны AI-инструменты нарративного анализа
Практические сценарии применения таких инструментов разнообразны. Спецслужбы и разведывательные агентства используют алгоритмы для быстрого выявления организованных кампаний дезинформации, которые распространяют эмоционально насыщенные истории. Автоматизированные системы обрабатывают огромные массивы постов, выделяя повторяющиеся сюжетные линии, сопоставляя временные рамки запуска публикаций и выявляя синхронизированное поведение ботов и реальных пользователей.
Кризис-менеджмент получает ценную помощь при работе со сценарием экологических или техногенных катастроф, когда фейковые сообщения о ложной эвакуации могут привести к панике. Социальные платформы интегрируют подобный инструментарий, перенаправляя сомнительный контент на обзор экспертам без излишней цензуры. Обычные пользователи также выигрывают: встроенные в интерфейс мессенджеров модули могут предупреждать о возможной дезинформации в реальном времени, позволяя сохранять критическое мышление при чтении новостных лент.
Напомним, ранее мы писали о том, почему Google недооценивают на фоне новых игроков ИИ.
