Угроза потока псевдонаучных публикаций, созданных ИИ: пути решения проблемы

Поток статей, создаваемых искусственным интеллектом, может существенно изменить научный ландшафт, поскольку позволяет корпорациям и отдельным авторам быстро производить видимость «доказательной базы», и только системное реформирование механизма рецензирования и повышение прозрачности исследований способны сохранить доверие общества к науке.

Нурлан Бекмуратов 2198 Views
Искусственный интеллект. Фото - КТРК

Массовое использование искусственного интеллекта в научных публикациях способно привести к появлению огромного количества материалов, которые обслуживают корпоративные интересы, а не истину. Как отмечает The Conversation, в прошлом уже фиксировались случаи, когда крупные фармацевтические компании прибегали к услугам «призрачных авторов» для продвижения выгодных выводов, скрывая реальные риски. Сегодня ИИ значительно ускоряет и удешевляет этот процесс, что делает угрозу еще более острой, пишет КТРК.

Согласно исследованию, только за первые десять месяцев 2024 года в базах данных Scopus и PubMed появилось 190 статей, основанных на так называемых однофакторных исследованиях. Это в десятки раз превышает показатели предыдущих лет и создает риск искажения научной картины. Многие из подобных публикаций не обязательно инициируются бизнесом — иногда ими движет стремление ученых к количеству ради карьеры, но подобные работы открывают дополнительные возможности для компаний продвигать свои продукты через видимость «научных» доказательств.

Исторические примеры манипуляций

Еще в 2000-х годах компания Wyeth, впоследствии приобретенная Pfizer, оказалась в центре судебных разбирательств из-за препаратов гормональной терапии. Судебные документы показали, что десятки обзоров и комментариев в медицинских журналах были написаны на заказ и подавались как независимые исследования. Эти публикации подчеркивали «пользу» препаратов и занижали риски, что привело к развитию рака груди у тысяч женщин.

В других отраслях ситуация была схожей. Например, производители газированных напитков и мясной продукции финансировали исследования, где результаты гораздо реже фиксировали негативное влияние их продуктов на здоровье. Таким образом, корпоративные интересы находили отражение в «научных» выводах, подрывая доверие к независимым данным.

Усиление угрозы с развитием ИИ

Если раньше подготовка статьи требовала месяцев работы, то сегодня с помощью алгоритмов ИИ можно за считанные часы создать несколько материалов, внешне соответствующих академическим стандартам. Это особенно заметно в сфере здравоохранения, где появляются публикации, связывающие один фактор, например, определенный продукт, с серьезным заболеванием. Такие результаты нередко случайны и вводят в заблуждение, но формально выглядят убедительно.

Новые регуляции, например инициатива правительства Великобритании, обязывают компании заявлять о пользе продукции только при наличии научных подтверждений. Однако эта мера стимулирует бизнес активно искать «удобные доказательства», что повышает спрос на работы, созданные с помощью ИИ.

Пути реформирования научной проверки

Эксперты отмечают, что сегодня ключевым инструментом защиты остается рецензирование, но оно также нуждается в обновлении. В условиях роста количества публикаций рецензенты часто не могут тщательно проверять данные и методики. Среди предложений — обязательная публикация плана исследования до его начала (пререгистрация), раскрытие всех шагов и использование метода анализа спецификационных кривых для тестирования надежности выводов.

Некоторые журналы уже требуют от авторов предоставления исходных данных, кода и инструментов экспериментов, а также полного раскрытия источников финансирования и возможных конфликтов интересов. Другие издания идут еще дальше, обязывая исследователей указывать, каким образом применялся ИИ в подготовке работы. Эти шаги направлены на повышение прозрачности и снижение риска распространения псевдонаучных материалов.

Напомним, ранее мы писали о том, что AI-агенты и браузеры стали идеальной мишенью для хакеров.

Поделиться