Депутат Ярослав Нилов выступил с инициативой доверить искусственному интеллекту оценку прав граждан на социальную поддержку. Этот шаг может радикально изменить распределение субсидий, однако на пути к цифровизации стоят серьезные преграды: эксперты предупреждают о риске алгоритмических ошибок и масштабных утечках данных, которые с начала 2025 года уже затронули более 39 миллионов россиян.
Скорость против бюрократии: первые итоги
Москва уже тестирует новые технологии на практике. С 2025 года столичное Социальное казначейство использует алгоритмы для проверки документов на субсидии, что позволило сократить время обработки заявлений с двух суток до одного часа. Специалисты по социально-экономической политике подчеркивают: главное преимущество ИИ заключается в способности мгновенно сопоставлять данные о доходах, имуществе и родственных связях из разных государственных баз. Такой подход позволяет государству перейти к предиктивной аналитике — не просто реагировать на бедность, а действовать на опережение, предотвращая социальные кризисы.
Ловушка алгоритма: мировой и российский опыт
Мировая практика показывает, что слепое доверие технологиям обходится дорого. В Австралии ошибки системы привели к необоснованным долгам для сотен тысяч граждан, в Швеции алгоритмы дискриминировали мигрантов, а в Нидерландах программа выявляла «подозрительных» получателей пособий по этническому признаку. Россия тоже сталкивается с техническими сбоями. В Санкт-Петербурге многодетная мать получила 15 отказов в выплатах только потому, что после обновления программного обеспечения ИИ перестал распознавать её родство с детьми. Эксперты напоминают: нейросети учатся на исторических данных, которые могут содержать скрытую предвзятость, что превращает уязвимые группы населения в главных мишеней для ложных обвинений в мошенничестве.
Дефицит доверия и угроза приватности
Безопасность персональной информации остается критическим вопросом. Только за первые месяцы 2025 года в России зафиксировано 35 крупных утечек данных. На этом фоне получатели пособий относятся к автоматизированным решениям крайне скептически и оспаривают их чаще, чем любые другие категории граждан. Существует реальный риск возникновения «черного ящика» — ситуации, когда система отказывает в помощи без объяснения причин, а найти ответственного за ошибку становится невозможно.
Гуманный контроль: как защитить права граждан
Для минимизации рисков предлагается опираться на принципы, заложенные в указе президента о развитии искусственного интеллекта. Экспертное сообщество настаивает на запрете полностью автоматизированных решений: ИИ должен лишь готовить черновик документа, тогда как окончательный вердикт обязан выносить человек. Гражданам необходимо обеспечить право на обжалование и детальное разъяснение логики работы алгоритма. Перед запуском любая подобная система должна проходить обязательный аудит на отсутствие дискриминации, а хранилища данных — получать усиленную защиту.





