Сауле позвонила мне поздно вечером. Голос был встревоженный:
«Слушай, у нас тут ситуация. Клиент написал в WhatsApp, что хочет удалить все свои данные. Говорит, что раз мы используем AI-бота, значит, его переписка где-то хранится и используется для обучения. Требует доказательства, что мы его данные не передали в OpenAI. Я даже не знаю, что ему ответить...»
Сауле руководит сетью косметологических клиник в Алматы. Полгода назад они внедрили AI-бота для записи клиентов — и результаты были отличные. Скорость ответа выросла в пять раз, администраторы перестали тонуть в однотипных вопросах. Но о защите персональных данных никто особенно не думал. Казалось, это проблема больших корпораций, а не салона красоты.
А потом пришёл этот запрос. И выяснилось, что Сауле понятия не имеет, куда уходят данные клиентов, как долго они хранятся и что вообще написано в договоре с провайдером бота.
«Понимаешь, — продолжала она, — я ведь даже не знала, что нужно об этом думать. Бота настроили, он работает, клиенты довольны. А теперь один недовольный клиент — и я чувствую себя так, будто нарушила закон.»
История Сауле — не уникальная. Я слышу подобное всё чаще: бизнес внедряет AI-инструменты, не задумываясь о том, что происходит с данными клиентов. А потом приходит либо претензия, либо — что хуже — проверка регулятора.
«К 2025 году 70% компаний в СНГ будут использовать AI-инструменты в коммуникации с клиентами. Но менее 20% из них имеют чёткую политику защиты персональных данных при работе с AI.»
Ещё три года назад чат-боты были простыми скриптами. Нажми кнопку — получи готовый ответ. Данные обрабатывались локально, риски были минимальными. Но потом появился ChatGPT, за ним — Claude, Gemini, и десятки других AI-решений. И всё изменилось.
Современный AI-бот — это не программа на вашем сервере. Это сложная система, которая отправляет запросы во внешние сервисы, получает ответы, обрабатывает контекст. И где-то на этом пути данные вашего клиента — его имя, телефон, история покупок, медицинские предпочтения — могут оказаться в местах, о которых вы даже не подозреваете.
Давайте разберёмся, что именно происходит, когда клиент пишет вашему боту.
Пишет в WhatsApp или на сайт
WhatsApp, Telegram, Instagram
Платформа бота (CRM, SaaS)
OpenAI, Anthropic, Google
Важно: На каждом этапе данные могут храниться, логироваться, использоваться для обучения моделей. Вопрос — знаете ли вы, что именно происходит на каждом шаге?
Видите проблему? Клиент написал вам — а его данные прошли через четыре разных системы. Каждая из них имеет свои политики хранения, свои серверы (возможно, в разных странах), свои условия использования.
Это реальность, с которой уже столкнулись компании. В 2024 году в Казахстане вступили в силу обновлённые требования Закона «О персональных данных и их защите». Штрафы выросли, контроль усилился. А в 2025 году регуляторы всё чаще обращают внимание именно на AI-системы — слишком много там «серых зон».
Подробнее о законодательстве мы писали в статье 152-ФЗ и CRM: как хранить персональные данные клиентов законно. Там разобраны общие требования, здесь сосредоточимся именно на AI-специфике.
Когда владельцы бизнеса думают о персональных данных, они обычно представляют себе что-то очевидное: ФИО, телефон, email. С AI-ботами всё сложнее — список данных, которые они обрабатывают, куда длиннее.
Вот как выглядит обычный диалог в косметологической клинике:
Клиент:
«Здравствуйте! Меня зовут Асель, хочу записаться на ботокс. У меня аллергия на лидокаин, это важно? Можно на субботу после 14:00? Мой номер +7 701 123 45 67»
Бот:
«Добрый день, Асель! Да, информация об аллергии очень важна — я передам её врачу. На субботу в 14:30 есть свободное время у доктора Ивановой. Записать вас?»
Смотрите, что произошло за 30 секунд диалога. Клиент передал:
| Тип данных | Пример | Категория по закону | Риск |
|---|---|---|---|
| Имя | Асель | Персональные данные | Средний |
| Телефон | +7 701 123 45 67 | Персональные данные | Средний |
| Медицинская информация | Аллергия на лидокаин | Специальная категория | Высокий |
| Интересы/намерения | Процедура ботокса | Персональные данные | Средний |
| График | Суббота после 14:00 | Персональные данные | Низкий |
Обратите внимание на строку с медицинской информацией. Это не просто персональные данные — это специальная категория. По казахстанскому законодательству, для обработки таких данных нужны усиленные меры защиты и явное согласие субъекта.
И вот вопрос: знает ли ваш AI-бот, что он только что получил медицинскую информацию? Умеет ли он её маскировать перед отправкой в OpenAI? Хранится ли она отдельно от обычных данных?
В большинстве случаев ответ — нет. Вся переписка уходит в LLM как есть, со всеми ФИО, номерами телефонов и диагнозами. И это проблема.
Типичная архитектура AI-бота — это несколько слоёв, и на каждом могут «оседать» персональные данные.
WhatsApp, Telegram, Instagram хранят историю сообщений на своих серверах.
SaaS-решение или ваша CRM, которая управляет ботом.
OpenAI, Anthropic, Google — обрабатывают запросы.
Системы мониторинга, аналитики, отладки.
Получается минимум четыре места, где могут храниться персональные данные. И это без учёта бэкапов, CDN, промежуточных кешей и прочих технических нюансов.
Когда клиент просит «удалить все мои данные» — вам нужно удалить их из всех этих мест. Вопрос: технически возможно ли это? И знаете ли вы, как это сделать?
Подробнее о технической стороне хранения данных — в статье Где хранить данные AI: on-premise или облако.
Хорошая новость: проблему можно решить на архитектурном уровне. Главный принцип — не отправлять в LLM то, что ему не нужно.
Вспомните пример с клиентом Асель. Что реально нужно AI-модели, чтобы ответить на вопрос о записи?
"Здравствуйте! Меня зовут Асель, хочу записаться на ботокс. У меня аллергия на лидокаин, это важно? Можно на субботу после 14:00? Мой номер +7 701 123 45 67"
Все персональные данные уходят в OpenAI
"Здравствуйте! Меня зовут [CLIENT_NAME], хочу записаться на ботокс. У меня [MEDICAL_INFO], это важно? Можно на субботу после 14:00? Мой номер [PHONE]"
В AI уходят только токены-заместители
Это называется PII masking (маскирование персонально идентифицируемой информации). Система работает так:
В итоге клиент видит нормальный ответ с обращением по имени, а AI-провайдер никогда не узнаёт, что Асель — это Асель, а не просто [CLIENT_NAME].
Подробнее о технической реализации маскирования — в статье DLP для AI: маскирование PII и политики хранения в чатах.
Один из главных вопросов, который задают клиенты. Простого ответа нет — всё зависит от вашей ситуации.
Сравним два подхода без маркетинговых преувеличений.
| Критерий | Облачное решение | On-premise (свой сервер) |
|---|---|---|
| Контроль над данными | Ограниченный. Данные на серверах провайдера. | Полный. Всё хранится у вас. |
| Локализация | Обычно США/ЕС. Есть решения с серверами в СНГ. | Казахстан. Полное соответствие требованиям. |
| Стоимость запуска | Низкая. Платите за использование. | Высокая. Нужны серверы, специалисты. |
| Стоимость владения | Средняя. Регулярные платежи. | Ниже в долгосрочной перспективе. |
| Безопасность | Зависит от провайдера. Крупные — хорошо защищены. | Зависит от ваших специалистов. |
| Масштабируемость | Легко. Кликнул — увеличил. | Сложнее. Нужно докупать оборудование. |
| Подходит для | Малый и средний бизнес, быстрый старт | Крупный бизнес, регулируемые отрасли, госсектор |
Моя рекомендация для большинства компаний 10-100 человек: начинайте с облака, но выбирайте провайдера с серверами в СНГ. Это даёт баланс между простотой запуска и соответствием требованиям.
Если вы работаете с особо чувствительными данными (медицина, финансы, государственные контракты) — рассмотрите гибридный подход: основная логика в облаке, но персональные данные хранятся локально и маскируются перед отправкой.
Есть ещё третий вариант — использование локальных LLM (Llama, Mistral), которые работают полностью на ваших серверах. Об этом подробнее в статье Локальные LLM для CRM: Llama, Mistral и приватность данных.
Проведём аудит вашего AI-решения и подготовим рекомендации по соответствию требованиям законодательства Казахстана. Первая консультация — бесплатно.
Получить консультациюОдна из главных ошибок — хранить данные «на всякий случай». Чем больше данных вы накопили, тем больше риск при утечке и тем сложнее выполнить запрос на удаление.
Правильный подход — определить для каждого типа данных срок хранения и строго его соблюдать.
Логи диалогов для отладки
Минимальный срокИстория переписки для контекста
Стандартный срокДанные о сделках (для бухгалтерии)
Требование законаСовет: Автоматизируйте удаление. Ручное удаление данных — это гарантия, что о нём забудут.
Важный нюанс: срок хранения — это не «через 30 дней можно удалить». Это «через 30 дней нужно удалить». Если данные лежат дольше положенного без веской причины — вы нарушаете принцип минимизации данных.
И помните о резервных копиях. Данные, которые вы «удалили» из основной базы, могут спокойно жить в бэкапах месяцами. Политика хранения должна распространяться и на них.
Если вы используете AI-бота для общения с клиентами, вам нужно их согласие на обработку персональных данных. Это не формальность — это требование закона.
Но просто добавить галочку «Согласен на обработку данных» — недостаточно. Согласие должно быть информированным. Клиент должен понимать:
«При общении с нашим AI-помощником мы обрабатываем следующие данные:
Для обработки запросов мы используем AI-технологии. Ваши данные могут передаваться партнёрам-обработчикам, расположенным в США (OpenAI LLC), с применением мер защиты согласно требованиям законодательства Республики Казахстан.
Мы храним переписку не более 30 дней. Вы можете запросить удаление данных в любое время, написав нам.»
Обратите внимание: мы честно говорим, что данные передаются в OpenAI, и указываем, где находятся их серверы. Это не пугает большинство клиентов, но защищает вас юридически.
Более подробные шаблоны политик и согласий — в статье Юридически безопасные боты: согласия, уведомления, хранение записей.
Вернёмся к ситуации Сауле. Клиент просит удалить все свои данные. Что делать?
Первое, что нужно понимать: это законное право клиента. По казахстанскому законодательству, субъект персональных данных может в любой момент отозвать согласие и потребовать удаления.
Вот пошаговый алгоритм:
Убедитесь, что запрос пришёл от самого клиента, а не от третьего лица. Запросите подтверждение с того же номера/email.
Удалите или обезличьте данные клиента в вашей основной системе. Сохраните обезличенную историю сделок, если это требуется для бухгалтерии.
Если платформа бота хранит историю переписки — удалите её. Большинство SaaS-решений позволяют это сделать через API или интерфейс.
При использовании API OpenAI/Anthropic данные обычно не сохраняются для обучения и удаляются через 30 дней. Подтвердите это в условиях сервиса.
Отправьте письменное подтверждение, что данные удалены. Храните это подтверждение — оно может понадобиться при проверке.
Важный момент про AI-провайдеров. Если вы используете OpenAI API (не ChatGPT через браузер, а именно API), ваши данные не используются для обучения моделей по умолчанию. Это прямо указано в их политике. То же касается Anthropic Claude API.
Но если ваши сотрудники использовали обычный ChatGPT или Claude для обработки клиентских запросов — ситуация сложнее. В бесплатных версиях данные могут использоваться для обучения. Именно поэтому критически важно использовать корпоративные API-решения, а не «бытовые» чаты.
Вот минимальный набор пунктов, которые нужно проверить перед запуском AI-бота в продакшен:
Если вы не можете поставить галочку хотя бы напротив половины пунктов — стоит задуматься. Запуск AI-бота без базовых мер защиты — это тикающая бомба. Рано или поздно придёт либо недовольный клиент, либо проверка.
Полный аудит AI-решения по безопасности — в статье Аудит AI-решений: чек-лист для службы безопасности перед внедрением.
Вернёмся к истории Сауле. После того разговора мы провели аудит её AI-решения. Выяснилось, что данные действительно уходили в OpenAI без маскирования, политика конфиденциальности устарела, а процедуры удаления данных не было вообще.
Мы потратили две недели на исправление: настроили маскирование PII, обновили политику, создали процедуру обработки запросов на удаление, обучили администраторов. Это стоило денег и времени — но гораздо меньше, чем могла бы стоить проверка регулятора или публичный скандал.
А вот что интересно: после обновления политики конфиденциальности несколько клиентов написали, что им нравится честный подход. «Вы первые, кто прямо сказал, что используете AI и объяснили, что с данными», — написала одна из них. Прозрачность стала конкурентным преимуществом.
Сегодня AI — это не экзотика, а рабочий инструмент. И как любой инструмент, он требует правильного обращения. Защита персональных данных — это не бюрократия и не «бумажная работа». Это базовая гигиена бизнеса в 2025 году.
Если вы используете AI-бота или планируете его внедрить — потратьте время на защиту данных сейчас. Это дешевле, чем разгребать последствия потом.
Проведём комплексный аудит защиты персональных данных в вашем AI-боте: проверим архитектуру, политики, договоры. Подготовим рекомендации и поможем устранить уязвимости.
Заказать аудитТехническая реализация защиты данных в AI-чатах
Правовые аспекты использования AI в России и СНГ
Как использовать AI без передачи данных за рубеж
Как хранить данные клиентов законно и безопасно