Алгоритмы Социального фонда начали давать системные сбои, которые лишают людей выплат и не оставляют шансов на быстрое исправление ошибок. Пока государство форсирует цифровизацию, отсутствие человеческого контроля превращает автоматизацию в бюрократическую стену, подрывающую доверие граждан.
Ловушка для многодетной матери: когда ИИ не видит родства
История жительницы Петербурга, воспитывающей пятерых детей, наглядно иллюстрирует несовершенство программного кода. С лета 2025 года женщина получила пятнадцать отказов в назначении единого пособия подряд. Эксперты в области социально-экономической политики поясняют: после обновления ПО система перестала «узнавать» детей заявительницы. Несмотря на то что раньше те же данные не вызывали вопросов, теперь алгоритм упорно не подтверждает родство.
Парламентарии, изучавшие документы матери, подтверждают: бумаги в идеальном порядке. Однако рядовые сотрудники Соцфонда оказались заложниками технологий. Специалисты видят ошибку на своих мониторах, но превратились в простых ретрансляторов — у них нет ни полномочий, ни технической возможности нажать кнопку «исправить» и восстановить справедливость вручную.
Цифровой оптимизм против суровой реальности
Статистика рисует неоднозначную картину. Чуть больше половины россиян готовы видеть в искусственном интеллекте помощника и даже поддерживают частичную замену чиновников нейросетями, надеясь на снижение коррупции. Но этот оптимизм мгновенно испаряется, когда дело касается жизненно важных решений. Почти 40% граждан открыто не доверяют технологиям, опасаясь фатальных ошибок, за которые никто не понесет ответственности.
Абсолютное большинство — 77% опрошенных — настаивает: оценивать этичность и правильность решений должен только человек. Лишь один процент верит, что нейросеть можно обучить морали. Люди согласны доверить машине обработку цифр, но не окончательный вердикт в социальной сфере.
Утечки данных и дефицит контроля
К техническим сбоям добавляются проблемы с безопасностью. Только с начала 2025 года произошло 35 крупных утечек персональных данных, затронувших десятки миллионов пользователей. Когда риск компрометации личной информации накладывается на невозможность оспорить решение робота, доверие к государственным институтам падает до критических отметок.
Специалисты уверены: систему нужно менять. Последнее слово обязано оставаться за живым экспертом, а сотрудники на местах должны получить право пересматривать автоматические отказы. Пока же практика показывает обратное: сырые алгоритмы запускаются без должного тестирования, а расплачиваться за их ошибки приходится самым уязвимым слоям населения.





