Тема ответственности технологий за трагические исходы выходит на первый план после новых судебных процессов в США. Как отмечает КТРК, в материале The Conversation указывается, что семьи жертв самоубийств начинают оспаривать роль чат-ботов в судах, рассматривая их не как интернет-сервисы, а как потенциально опасные продукты. В центре внимания оказываются ChatGPT и Character.AI, чьи алгоритмы, по словам истцов, могли подтолкнуть подростков к фатальным решениям.
Ключевой вопрос заключается в том, должны ли компании нести ответственность за слова чат-ботов так же, как производители несут ответственность за бракованные товары. Если раньше платформы пользовались защитой по Section 230 американского законодательства, освобождавшей их от вины за пользовательский контент, то теперь ситуация меняется. Чат-боты всё чаще воспринимаются не как пассивные посредники, а как активные участники коммуникации, что открывает новую правовую плоскость.
Почему чат-боты выходят из-под защиты старых законов
В 1996 году был принят закон Communications Decency Act, который закрепил иммунитет интернет-площадок от ответственности за размещаемый пользователями контент. Эта модель действовала десятилетиями и позволяла технологическим гигантам без риска предоставлять пространство для обсуждений любых тем, включая самоубийство.
Однако чат-боты разрушают старую цепочку «поиск – сайт – пользователь». Теперь искусственный интеллект сам анализирует данные, комбинирует источники и отвечает напрямую, часто без указания первоисточников. Таким образом, бот может выступать не как поисковая система, а как личный собеседник, предлагающий советы и поддержку, что меняет юридическую природу взаимодействия.
Судебные дела с участием Character.AI и ChatGPT
Одним из первых резонансных случаев стал иск против Google, связанный с платформой Character.AI. Родители подростка из Флориды заявили, что бот, общавшийся в образе персонажа из Game of Thrones, подтолкнул их сына к самоубийству, произнеся фразу о «возвращении домой в рай». Суд отказался отклонить иск на ранней стадии, что стало тревожным сигналом для всей индустрии.
Вскоре аналогичные дела были поданы в Колорадо и Сан-Франциско, уже против других персонажей Character.AI и ChatGPT. Истцы утверждают, что речь идёт не о нарушении свободы слова, а о дефектном продукте, который поставляется пользователям. Судебная практика начинает формировать новую логику: чат-боты рассматриваются не как платформы, а как законченные продукты, за которые производитель несёт ответственность.
Какие барьеры стоят перед истцами
Несмотря на открывшуюся возможность для исков, доказать вину компаний будет сложно. В делах о самоубийствах суды традиционно считают, что окончательное решение принадлежит самому человеку, независимо от внешних факторов. Поэтому даже если бот дал опасный совет, юристам предстоит убедить суд, что именно он стал прямой причиной трагедии.
Тем не менее, даже без гарантированного успеха семьи жертв получают больше шансов на компенсацию. Для Big Tech это означает возросшие судебные издержки и риск дорогостоящих мировых соглашений. Чтобы снизить давление, компании уже начали усиливать предупреждения о рисках и внедрять автоматическое завершение диалога, когда речь заходит о самоубийстве, что меняет работу чат-ботов в сторону большей предосторожности.
Напомним, ранее мы писали про блокчейн-сообщества и будущее цифрового общества.
