17-04-2026

Сочувственно смотрят в экран, но исправить не могут: как автоматизация превратила сотрудников Соцфонда в беспомощных ретрансляторов?

Сочувственно смотрят в экран, но исправить не могут: как автоматизация превратила сотрудников Соцфонда в беспомощных ретрансляторов?

Исследования фиксируют оптимизм: каждый второй россиянин готов доверить ИИ ускорение процессов и снижение коррупции, а 54% — частично заменить чиновников алгоритмами. Но почему при этом граждане категорически против передачи машине автономных решений в социальной сфере, а любая ошибка алгоритма (особенно если её нельзя обжаловать) разрушает доверие к государству сильнее, чем любой человеческий промах?

Как отметил в комментарии RuNews24.ru эксперт по социально-экономической политике Яков Якубович, вопрос о том, готово ли российское общество доверить искусственному интеллекту решение, кому получать пособие, а кому нет, на первый взгляд кажется риторическим. Исследования фиксируют растущий оптимизм: по данным ВЦИОМ, 52% россиян доверяют ИИ, а 54% воспринимают его прежде всего, как помощника, способного облегчить жизнь и ускорить процессы. Согласно опросу SuperJob, 54% граждан позитивно воспринимают перспективу частичной замены чиновников алгоритмами, рассчитывая на объективность и снижение коррупции. Но как только речь заходит о конкретных, жизненно важных решениях, оптимизм сменяется настороженностью.

По словам эксперта, доверие к ИИ в социальной сфере подрывается не абстрактными рассуждениями, а конкретными случаями, когда автоматизированная система совершает ошибку — и у гражданина нет инструментов её исправить.

«Самый яркий недавний пример — история жительницы Санкт-Петербурга, матери пятерых детей. С лета 2025 года она получила 15 отказов подряд в назначении единого пособия. Причина — сбой в системе искусственного интеллекта, внедренной в местном отделении Социального фонда: алгоритм перестал подтверждать родство матери с её детьми. Ранее система тех же детей признавала родными, но после обновления программного обеспечения статус женщины обнулился. Депутат Наталия Астахова, лично проверившая документы, подтвердила: все бумаги в идеальном порядке. Но чиновники на местах не имеют полномочий повлиять на результат и превратились в ретрансляторов, которые сочувственно смотрят в экран, но нажать кнопку «исправить» не могут. По словам Астаховой, такие истории в Петербурге и по всей России перестали быть случайностью — это уже система».

Эксперт пояснил, что, по данным ВЦИОМ, 38% россиян не доверяют ИИ, и среди главных опасений — риск принятия ошибочных решений и риск принятия решений, за которые не будет ответственных. При этом 77% опрошенных заявили, что оценкой этичности решений ИИ обязательно должен заниматься человек. Лишь 1% считают, что нейросети можно обучить морали. Это ключевой маркер общественной готовности: россияне не против ИИ как помощника, но категорически против передачи ему автономных решений в социально значимых сферах. Исследование SuperJob также фиксирует трезвую позицию противников замены чиновников ИИ: их главные аргументы — технологии пока не готовы полностью заменить человека, автоматизация полезна для обработки данных, но не для принятия решений.

«Декларируемый государством человекоцентричный подход предполагает, что технологии должны служить человеку. Однако практика внедрения ИИ в социальной сфере демонстрирует обратную тенденцию: системы запускаются без должного тестирования, а сотрудники на местах лишаются полномочий корректировать ошибочные решения автомата. Проблема усугубляется массовыми утечками персональных данных — с начала 2025 года зафиксировано 35 крупных инцидентов, затронувших более 39 миллионов пользователей. Когда гражданин видит, что его чувствительные данные могут оказаться скомпрометированы, а алгоритм при этом ошибается без возможности обжалования, доверие к системе неизбежно падает».

Если государство действительно хочет, чтобы граждане доверяли ИИ в распределении социальной поддержки, необходимо выполнить несколько условий. Окончательное решение должно оставаться за живым специалистом: ИИ может готовить проект и анализировать риски, но вердикт выносит человек. Гражданин должен знать, почему алгоритм принял то или иное решение, и иметь возможность его обжаловать. Сотрудники на местах должны быть наделены полномочиями пересматривать ошибочные автоматические отказы. Автоматизация не должна происходить за счёт уязвимых групп населения: каждое обновление программного обеспечения должно проходить проверку на реальных кейсах.

Эксперт подчёркивает, что российское общество в целом готово к использованию ИИ в социальной сфере — но только как вспомогательного инструмента, а не как замены человеческому суждению. История с 15 отказами многодетной матери из Петербурга — это не технический сбой, а симптом системной проблемы. Когда алгоритм ошибается, а у человека нет рычагов влияния, доверие к государству разрушается. Без создания надёжных механизмов апелляции и сохранения человеческого контроля любые разговоры о человекоцентричности останутся лишь декларациями.