В Трудовом кодексе нет статьи о штрафах за использование нейросетей, но это не значит, что за ошибки с ИИ нельзя поплатиться карьерой. Бесконтрольное общение с чат-ботами может довести до увольнения или даже судебного иска. Эксперты в сфере кибербезопасности выделяют три главных греха: слив данных, слепое доверие к результатам и попытки взломать систему защиты.
Утечка коммерческой тайны и персональных данных
Самая опасная ошибка — скармливать публичным языковым моделям конфиденциальную информацию. Когда сотрудник копирует в окно чат-бота клиентские базы или финансовые отчеты, он напрямую нарушает трудовую дисциплину. Если такая «консультация» с ИИ обернется для компании крупными убытками, работодатель вправе не только уволить виновного, но и потребовать через суд возмещения реального ущерба.
Выдача сгенерированного контента за собственный
Карьерные риски растут и тогда, когда работник выдает сырой результат работы нейросети за свой собственный. Программный код или отчеты, созданные ИИ без надлежащей проверки, часто содержат критические ошибки. Если халатность привела к сбою в системе или финансовым потерям, руководство расценит это как неисполнение обязанностей. В такой ситуации закон позволяет применить дисциплинарное взыскание — вплоть до расторжения договора.
Использование ИИ в противоправных целях
Попытки заставить нейросеть написать вирус, создать кейлоггер или автоматизировать запрещенные действия — это кратчайший путь к серьезным проблемам. Использование искусственного интеллекта для обхода корпоративной безопасности грозит не только увольнением, но и уголовным преследованием. Государственные штрафы за подобные игры могут достигать 300 тысяч рублей. Кроме того, на фоне растущего интереса хакеров к «цифровым личностям» граждан, любая попытка взлома системы изнутри становится критической угрозой для организации.





