Меня зовут Роман Игнатьев. Я работаю в HR и клиентском сервисе и представляю компанию Mega Personal.
Искусственный интеллект уже стал обычным рабочим инструментом — как когда-то поисковики, электронная почта или офисные программы. Сотрудники используют нейросети для написания текстов, анализа данных, подготовки презентаций и автоматизации рутинных задач.
Поэтому у многих возникает вопрос: может ли работодатель в России уволить человека просто за использование ChatGPT, YandexGPT или других ИИ-сервисов?
Короткий ответ — нет. По состоянию на май 2026 года в Трудовом кодексе РФ нет прямого запрета на использование искусственного интеллекта. Сам факт обращения к нейросетям не считается нарушением. Однако увольнение все же возможно, если применение ИИ привело к серьезным последствиям или нарушению внутренних правил компании.
Главный риск конечно же связан с конфиденциальной информацией. Многие сотрудники загружают в публичные ИИ-сервисы документы, отчеты, клиентские базы или внутреннюю переписку. Но такие данные могут попасть на внешние серверы, а значит — возникает риск утечки коммерческой тайны или персональных данных.
Работодатель может инициировать увольнение, если использование ИИ привело к следующим последствиям:
И кстати… плюсом к этому серьезно работодатели относятся к случаям, когда сотрудник без проверки использует ответы нейросетей в отчетах, договорах или финансовых документах. ИИ способен ошибаться и выдавать недостоверную информацию, поэтому ответственность за итоговый результат все равно остается за человеком.
В 2025-2026 годах многие организации начали вводить собственные AI-политики. В них прописывают, какие сервисы разрешено использовать, какие данные запрещено передавать нейросетям и в каких случаях требуется согласование с руководством.
Если сотрудник систематически нарушает эти правила, работодатель может применить стандартную дисциплинарную процедуру: замечание, выговор, а затем увольнение за неоднократное неисполнение обязанностей.
Особенно это касается сфер, связанных с финансами, IT, юриспруденцией и обработкой персональных данных.
При этом юристы подчеркивают: увольнение должно происходить с соблюдением процедуры. Работодатель обязан зафиксировать нарушение, запросить объяснительную и оформить документы в соответствии с Трудовым кодексом. Однократное мелкое нарушение редко становится причиной увольнения.
Сотрудникам рекомендуется внимательно изучать внутренние регламенты компании и не передавать в публичные ИИ-сервисы чувствительную информацию. Также важно проверять и редактировать результаты работы нейросетей, а не использовать их ответы без контроля.
Работодателям, в свою очередь, стоит заранее разработать понятные правила использования ИИ и обучить сотрудников безопасной работе с такими инструментами. Это поможет снизить риск утечек данных и трудовых споров.
В России в 2026 году нельзя уволить человека просто за использование искусственного интеллекта. ИИ уже воспринимается как обычный рабочий инструмент. Но если его применение приводит к утечке данных, нарушению внутренних правил или ущербу для бизнеса, увольнение становится вполне реальным и законным сценарием.
Если вы хотите пройти 2026 год без штрафов, лишней бюрократии и постоянного тушения кадровых пожаров, то подписывайтесь на наш Телеграм-канал.