Об этом сообщает «КТРК» со ссылкой на The Conversation
Искусственный интеллект (ИИ) все активнее внедряется в журналистскую практику, от транскрипции интервью и перевода статей до написания новостей о погоде и экономике. Однако при всех преимуществах технологий важные этические вопросы остаются вне внимания многих новостных организаций. Отсутствие согласованных норм и правил создает сложную ситуацию, в которой журналисты часто ориентируются лишь на собственное понимание морали.
В исследованиях, проведённых с участием журналистов из разных редакций Канады, выявлен широкий разрыв в уровне знаний о возможностях ИИ и его контроле. Несмотря на общее понимание важности человеческого надзора, отсутствует единое мнение о том, на каком этапе и в каком объёме должны вмешиваться люди. Прозрачность использования ИИ для аудитории остаётся низкой, что вызывает вопросы доверия к новостному контенту.
Недостаточная прозрачность и проблемы доверия
Журналисты признают, что редакторы часто имеют возможность исправлять тексты, созданные ИИ, однако на практике раскрытие информации об использовании технологий ограничено. В ряде случаев материалы сгенерированы машиной, но об этом не сообщается читателям, что снижает уровень открытости и подрывает доверие. Недостаток стандартов и руководств по этике использования ИИ усугубляет проблему.
Отношение аудитории к контенту, созданному с помощью ИИ, неоднозначно. Исследования показывают, что многие потребители новостей хотят знать о вовлечении ИИ и не всегда готовы платить за такой продукт. Это подчёркивает необходимость разработки чётких политик и коммуникации с читателями для сохранения доверия к журналистике.
Конкретные инциденты и их последствия
Примеры ошибок и злоупотреблений в использовании ИИ в медиа становятся всё более заметными. Ошибочное произношение имён политиков, смягчение образа экстремистских групп, создание спорных опросов и даже поддельные подписи авторов — все эти случаи подрывают репутацию изданий и вызывают общественное недовольство.
Такие инциденты показывают, что недостаточный контроль и этическое регулирование использования ИИ несут риски для достоверности информации и авторитета журналистики. Без единых правил и ответственности подобные ошибки будут повторяться, что угрожает целостности медиа-среды.
Вызовы и неопределённость для редакций
Многие новостные организации пока не имеют чётких внутренних правил по работе с ИИ и не проводят регулярных обсуждений этических аспектов. Журналисты часто опираются на интуицию и личные убеждения, что создает разрозненность подходов. Отсутствие общих стандартов затрудняет выработку единой политики и снижает эффективность контроля.
В условиях стремительных технологических изменений редакции испытывают давление, пытаясь внедрять инновации и одновременно сохранять доверие аудитории. Разговоры об этике использования ИИ необходимы и требуют приоритета, чтобы избежать потери качества журналистики и обеспечить устойчивое развитие отрасли.
Необходимость формирования этических стандартов
Выработка ясных правил и прозрачных процедур использования искусственного интеллекта в журналистике становится ключевой задачей. Это включает определение границ вмешательства человека, обязательное информирование аудитории о применении ИИ и создание механизмов контроля качества контента.
Только согласованные стандарты позволят сохранить доверие читателей, повысить ответственность медиа и сделать использование технологий этичным и безопасным. Внедрение таких норм поможет журналистам эффективно использовать ИИ без ущерба для профессиональных и моральных принципов.
Напомним, ранее мы писали о том, как избежать излишней шумихи вокруг «ИИ» и предложить реальные решения.