Об этом сообщает «КТРК» со ссылкой на The Conversation
Использование искусственного интеллекта для мониторинга госслужащих в США привело к росту тревожности в структурах власти. Министерство правительственной эффективности (DOGE), созданное указом президента Дональда Трампа, начало применять ИИ для оценки лояльности сотрудников и поиска признаков недовольства в их сообщениях. Эти меры сопровождаются увольнениями, ограничением доступа к системам и отсутствием прозрачности в действиях ведомства.
Под руководством Илона Маска DOGE позиционируется как инструмент повышения эффективности и сокращения расходов. Однако на практике ИИ применяется скорее для контроля, чем для поддержки госслужащих. Увольнения без объяснений, массовые запросы о результатах работы и угроза автоматизированной оценки – всё это подрывает принципы справедливой государственной службы.
Скрытый контроль под видом цифровизации
DOGE получил контроль над кадровой системой и ИТ-доступами многих федеральных агентств. Сотрудники EPA и других ведомств были вынуждены сменить поведение в сети и даже в мессенджерах из-за страха быть неправильно понятыми или уволенными. Использование таких приложений, как Signal и Google Docs, в обход федеральных платформ ставит под вопрос сохранность служебных данных.
Внедрение чат-бота Grok, разработанного Маском, сопровождалось неясными целями и непрозрачностью. Отсутствие открытого описания его функций и методов анализа лишает работников уверенности в том, кто и как оценивает их поведение и лояльность.
Принуждение под угрозой увольнения
Распоряжения DOGE сопровождались угрозами и ультиматумами. Госслужащим предлагалось еженедельно отчитываться о результатах своей работы, иначе их молчание воспринималось как добровольное увольнение. Хотя позднее заявили, что участие в инициативе было добровольным, оценки уже были загружены в ИИ-систему.
Реакция разных агентств была неоднозначной: одни предостерегали не отвечать, другие требовали подчинения. Такое расхождение подорвало внутреннюю координацию и усилило хаос внутри федеральной системы, особенно когда стало известно, что анализ ответов мог использоваться для оценки ценности сотрудника в глазах DOGE.
Машинный суд над лояльностью
ИИ-инструменты, применяемые DOGE, ориентированы на выявление «нелояльности» к Трампу и Маску. Однако такие алгоритмы игнорируют профессиональные качества, опыт и компетенции сотрудников. Приоритет смещается с выполнения обязанностей к демонстративной преданности, что подрывает суть работы на государство.
Подобная практика способствует вымыванию критически мыслящих специалистов и ограничивает инициативу. Когда система построена не на объективных показателях, а на оценке эмоционального фона или политических предпочтений, любое инакомыслие становится риском.
Эрозия доверия и самоцензура
Наблюдение с помощью ИИ превращает государственные структуры в зону постоянной слежки. Угрозы ошибочной трактовки, вызванной ограничениями языковых моделей, заставляют работников фильтровать каждое слово. Это мешает выполнению задач и сдерживает важные сигналы о внутренних проблемах и нарушениях.
Когда отсутствует уверенность в конфиденциальности коммуникации, исчезает и мотивация защищать интересы института. Самоцензура и страх последствий тормозят профессиональную инициативу, приводя к демотивации и снижению продуктивности.
Системный надзор вне контроля
После заявления Маска о снижении вовлеченности в DOGE структура сохраняется, и более 100 её сотрудников продолжают работу. Несмотря на смену лидера, система наблюдения остаётся, не подпадая под независимый контроль. Такого рода механизмы, однажды внедрённые, редко исчезают — даже если их автор уходит.
Государственная служба, построенная на нейтралитете и открытости, рискует превратиться в административный механизм подчинения. Игнорирование принципов справедливости и прозрачности ради политической выгоды делает саму демократическую систему уязвимой к разрушению изнутри.
Напомним, ранее мы писали о том, как световые чипы меняют будущее ИИ.