Исследование Ванкуверского островного университета под руководством Аджая Кумара Шрести показало, что молодые пользователи хотят пользоваться преимуществами искусственного интеллекта, но при этом боятся за свою конфиденциальность и безопасность данных, пишет КТРК.
По данным ученых, подростки сталкиваются с ИИ ежедневно — от соцсетей до образовательных платформ. Но, несмотря на удобство и персонализацию, они не понимают, куда попадает их информация и кто ею распоряжается. Это вызывает тревогу и ощущение потери контроля.
Молодежь не доверяет ИИ и боится за свои данные
Опрос среди молодежи 16–19 лет показал, что большинство некомфортно делится личной информацией даже ради удобства. Респонденты рассказали, что не понимают, какие данные собирают системы и зачем они нужны.
Многие подростки признаются, что устали от длинных «политик конфиденциальности» и скрытых настроек. Они считают, что нужно быть «айтишником», чтобы просто защитить свои данные. Один из участников сказал: «Мы не знаем, какие данные берут и как их используют. Никто нам это ясно не объясняет».
Родители и учителя тоже не успевают за технологиями
Взрослые — педагоги и родители — разделяют тревогу молодежи. Они хотят четких правил и прозрачности от IT-компаний, но признают, что не успевают за развитием технологий.
Многие педагоги отмечают, что образовательные программы отстают от реальности, а цифровая грамотность родителей не позволяет им объяснить детям, как безопасно использовать ИИ. Специалисты считают, что школам нужно включать AI-грамотность в учебные курсы и создавать понятные инструменты для защиты данных.
Компании говорят о технологиях, а не о людях
Исследование показало, что разработчики ИИ воспринимают конфиденциальность как технический вопрос — шифрование, минимизация данных, соблюдение регламентов. Однако для молодежи и педагогов важнее доверие и контроль.
Многие компании рассматривают приватность как цену за инновации, уделяя больше внимания производительности, чем защите пользователя. В итоге мнение самих молодых людей редко учитывается при создании новых платформ.
Кто принимает решения и где теряется ответственность
Даже когда родители и учителя стараются защитить детей, основные решения принимают крупные IT-корпорации. Именно они определяют, какие данные собирать и как формировать алгоритмы, влияющие на жизнь пользователей.
Из-за слабых законов и недостаточного контроля большинство механизмов регулирования остаются декларативными. Эксперты призывают усилить прозрачность и обязать компании отчитываться о способах использования пользовательских данных.
Как достичь баланса: модель PEA-AI
Чтобы наладить диалог, ученые разработали концепцию PEA-AI (Privacy–Ethics Alignment in AI) — систему, которая помогает находить баланс между интересами всех сторон. В ней выделено четыре ключевых конфликта:
- Контроль против доверия — подростки хотят автономии, разработчики — стабильности.
- Прозрачность против восприятия — понятное для инженеров часто непонятно пользователю.
- Родительский контроль против голоса молодежи — важно сохранять баланс защиты и свободы.
- Образование против осведомленности — знания о цифровой безопасности должны быть доступны каждому.
Что нужно менять: шесть шагов к этичному ИИ
Исследователи предложили конкретные меры, чтобы сделать ИИ безопаснее:
- Упростить согласие на обработку данных — короткие формы и визуальные инструкции.
- Проектировать системы с учетом приватности — минимизация сбора данных и открытые панели управления.
- Разъяснять принципы работы ИИ — особенно в школах.
- Контролировать платформы — проводить аудит и принимать жалобы пользователей.
- Обучать цифровой грамотности — внедрять курсы по ИИ в образование.
- Вовлекать молодежь в политику — давать им право голоса при создании технологий.
Напомним, ранее мы писали про то, что ученые раскрыли неожиданные тайны спагетти и объяснили, как клейковина помогает сохранять макароны целыми.
