Как смертельный диагноз вдохновил создание новой этической системы ИИ

Этические системы искусственного интеллекта становятся ключевым направлением в развитии технологий, где разработчики стремятся интегрировать механизмы прозрачности, подотчётности и моральной оценки в работу алгоритмов, влияющих на жизнь миллионов людей.

Нурлан Бекмуратов 1960 Views
Искусственный интеллект. Фото - КТРК

История разработчика Льва Гукасяна получила широкое освещение благодаря КТРК, который ссылается на публикацию Hackernoon. Автор рассказал, как столкновение с тяжёлым заболеванием подтолкнуло его к созданию новой концепции этического ИИ. В её основе лежит «Священная пауза» — механизм, позволяющий машинам не только отвечать быстро, но и фиксировать момент моральной сложности, оставляя прозрачный след принятого решения.

Система, получившая название Ternary Moral Logic, добавляет к бинарному принципу «да» или «нет» третий вариант — «священную паузу». Это состояние не является отказом или согласием, а представляет собой осознанную остановку для оценки рисков и записи логики рассуждений. Такой подход открывает возможность сделать искусственный интеллект более ответственным и подотчётным.

Священная пауза как новый стандарт этики

Разработчик подчёркивает, что момент тишины и размышлений, который продемонстрировал его врач в критической ситуации, и стал вдохновением для концепции. Машины отвечают мгновенно, но человек может задуматься, осознавая вес ситуации. Этот промежуток — не слабость, а проявление мудрости и честности.

В Ternary Moral Logic «Священная пауза» не тормозит работу системы. Основной процесс продолжает действовать с прежней скоростью, а параллельно запускается механизм совести. Он анализирует сложность ситуации, фиксирует риски и даёт пользователю понять, что система столкнулась с морально значимым выбором.

Как работает Ternary Moral Logic

Механизм построен на трёх состояниях: «Разрешить», «Священная пауза» и «Запретить». Особенность заключается в том, что пауза не означает отказа или задержки, а запускает параллельный процесс логирования. Факторы, влияющие на решение, сохраняются в отчёте, что делает действия ИИ прозрачными и поддающимися проверке.

Система может учитывать количество вовлечённых сторон, потенциальный вред, обратимость последствий, распределение пользы и культурные особенности. При превышении порога сложности алгоритм фиксирует все детали и при необходимости инициирует человеческий контроль.

Обещание Гукасяна и открытый код

Проект разработан как открытый и доступный всем. На платформе GitHub опубликован код, демонстрации, научные статьи и руководство по интеграции. Особое место занимает «Обещание Гукасяна» — набор гарантий, исключающих использование системы в оружии или шпионских целях.

Три символа закрепляют этическую основу: «Фонарь», доказывающий, что ИИ умеет останавливаться; «Подпись» — криптографический маркер автора; и «Лицензия» — юридическое обязательство, которое запрещает аморальное применение. Любое нарушение аннулирует эти гарантии и лишает систему этического статуса.

Значение проекта для будущего ИИ

Каждый день алгоритмы принимают решения, влияющие на людей: от диагностики болезней до финансовых одобрений и модерации контента. Эти процессы требуют не только точности, но и этической ответственности. Концепция «Священной паузы» даёт возможность встроить в машины способность к моральному размышлению и прозрачности.

Разработчик отмечает, что не стремится к прибыли или патентам. Его цель — создать систему, которая сможет пережить его самого и сохранить человеческую мудрость в эпоху искусственного интеллекта.

Напомним, ранее мы писали о том, как борьба за чистоту орбиты может превратиться в новую триллионную индустрию.

Поделиться