Как сообщает Futurism, функция AI Overviews в поиске Google, генерирующая краткие ответы с помощью искусственного интеллекта, может распространять недостоверную информацию в огромных масштабах.
Анализ, проведённый стартапом Oumi по заказу The New York Times, показал, что точность таких ответов составляет около 91%. Несмотря на высокий показатель, при миллиардах поисковых запросов это приводит к миллионам ошибок ежедневно, формируя системную проблему дезинформации, пишет КТРК.
Почему даже высокая точность приводит к проблеме
Google ежегодно обрабатывает около 5 триллионов поисковых запросов. Даже небольшой процент ошибок превращается в десятки миллионов неверных ответов каждый час.
Исследования также показывают, что пользователи склонны доверять ИИ без проверки. Только около 8% людей перепроверяют информацию, а в ряде случаев пользователи продолжают следовать рекомендациям ИИ даже при очевидных ошибках.
Как работает механизм ошибок
Большие языковые модели могут уверенно выдавать неточную или вымышленную информацию, если не имеют прямого ответа. При этом AI Overviews подаются в удобной форме, что усиливает доверие пользователей.
Оценку ситуации даёт профессор ответственного ИИ Джина Нефф:
«Проблема с неточными AI Overviews заложена в самой их конструкции. Они создаются для скорости, а не точности, и это может приводить к опасным ошибкам, особенно в медицинской информации».
Разница между версиями ИИ и новые риски
Тестирование показало, что обновлённая модель Gemini 3 стала точнее по сравнению с Gemini 2 — 91% против 85%. Однако одновременно выросла доля так называемых «необоснованных» ответов, когда ИИ ссылается на источники, не подтверждающие информацию.
Это усложняет проверку данных и увеличивает риск распространения недостоверных сведений.
Удар по медиа и эффект «нулевого клика»
AI Overviews меняют поведение пользователей: многие получают ответ прямо в поиске и не переходят на сайты. Это явление называют «нулевым кликом».
По данным аналитики, трафик медиа может снижаться на 30–60%, а отдельные ресурсы теряют до 90% аудитории. Это ставит под угрозу устойчивость независимых изданий.
Дополнительную оценку даёт исполнительный директор British Liver Trust Памела Хили:
«AI Overviews могут создавать ложное чувство уверенности. Пользователи могут не заметить, что информация не относится к их ситуации, что способно привести к реальному вреду для здоровья».
Риск монополии информации
Алгоритмы чаще отдают приоритет крупным платформам, таким как Wikipedia или YouTube, игнорируя нишевые экспертные источники.
Это формирует ситуацию, при которой ответы ИИ воспринимаются как единственный источник истины, что снижает разнообразие мнений и подрывает критическое мышление пользователей.
Напомним, ранее мы писали про разработку водородной плиты, которая может изменить подход к использованию энергии на кухнях по всему миру.
