Внешние ИИ-сервисы – угроза для компании
Иван Мельников
Иван Мельников
директор по развитию продуктов ROBIN
Источник
«СофтТех»
Эксклюзив «СофтТеха» — директор по гиперавтоматизации и ИИ-агентам направления SL Soft AI Иван Мельников рассказал нам о том, как избежать утечек, штрафов и неверных управленческих решений и одновременно по максимуму автоматизировать рабочие процессы.
Внешние ИИ-сервисы – угроза для компании
Аналитики ожидают, что к 2030 году более 40% компаний столкнутся с инцидентами из‑за «теневого» ИИ. Он опасен тем, что сотрудники подгружают в публичные сервисы деловую переписку, договоры, клиентские и проектные данные — чтобы ускорить решение своих ежедневных рабочих задач.В результате компания теряет контроль над тем, где хранятся данные и кто может к ним получить доступ, а ущерб может оказаться и репутационным, и финансовым с учетом жестких требований ФЗ‑152 и GDPR. Были случаи, когда публичные чаты с LLM индексировались поисковыми машинами и вся переписка с ИИ становилась доступна в результатах поиска.
Платформизация как первый шаг
Запретить внешние сервисы — не выход, ведь сотрудники прибегают к ним для избавления от рутины и чтобы повысить продуктивность. Важно предложить альтернативные инструменты корпоративного уровня.Эффективный путь начинается с внедрения платформенного подхода: в основе лежит не просто отдельная модель, а связка из пользовательских интерфейсов, API, логирования, защиты данных, ролевой модели, RAG‑механик, а также комбинация GenAI, классического ML, RPA и IDP.
Такой подход позволяет не только автоматизировать отдельные задачи, но и сквозные процессы целиком: документы автоматически принимаются, распознаются, проверяются по правилам и попадают в СЭД или ERP, а при нехватке данных система сама инициирует запрос контрагенту без участия сотрудника. Это только один пример, логика сценария гибко настраивается под задачи бизнеса.
Подружить нейросеть с кибербезом
Следующий шаг — синхронизация политик ИИ и ИБ. Компании формируют понятные правила: какие данные можно передавать внешним сервисам, какие — только в корпоративные инструменты, какие действия категорически запрещены.Это сопровождается обучением: сотрудникам объясняют, почему что-либо делать нельзя, а также показывают безопасные альтернативы во внутреннем контуре.
Это позволит мягко переключить людей с публичных нейросетей на корпоративные решения, чтобы сохранить эффект автоматизации, но убрать риски «теневого» ИИ.
Культура доверия
Завершающий элемент — культура доверия и выделенный центр компетенций. Вместо тотального запрета компания выбирает открытый диалог и демонстрирует, что легальные ИИ‑инструменты удобнее и надежнее «теневых».Руководство задает тон, поддерживает инициативы сотрудников и инвестирует в повышение ИИ‑грамотности, а центр компетенций помогает масштабировать сценарии использования от первых пилотов до тиражирования во все подразделения.
В такой модели искусственный интеллект перестает быть «теневым сотрудником» и превращается в управляемого цифрового помощника, который ускоряет работу и при этом не выносит чувствительные данные за периметр компании.
Специалистам нужно дать возможность пользоваться такими сервисами открыто — внедрить прозрачный, безопасный и удобный корпоративный ИИ‑инструмент
новости и публикации
На связи с вами —
по любому вопросу
по любому вопросу