AI и конфиденциальность: как хранить персональные данные в…
  • Безопасность
  • Автор: Команда CrmAI
  • Опубликовано:
Защита персональных данных при использовании AI-ботов в Казахстане

Сауле позвонила мне поздно вечером. Голос был встревоженный:

«Слушай, у нас тут ситуация. Клиент написал в WhatsApp, что хочет удалить все свои данные. Говорит, что раз мы используем AI-бота, значит, его переписка где-то хранится и используется для обучения. Требует доказательства, что мы его данные не передали в OpenAI. Я даже не знаю, что ему ответить...»

Сауле руководит сетью косметологических клиник в Алматы. Полгода назад они внедрили AI-бота для записи клиентов — и результаты были отличные. Скорость ответа выросла в пять раз, администраторы перестали тонуть в однотипных вопросах. Но о защите персональных данных никто особенно не думал. Казалось, это проблема больших корпораций, а не салона красоты.

А потом пришёл этот запрос. И выяснилось, что Сауле понятия не имеет, куда уходят данные клиентов, как долго они хранятся и что вообще написано в договоре с провайдером бота.

«Понимаешь, — продолжала она, — я ведь даже не знала, что нужно об этом думать. Бота настроили, он работает, клиенты довольны. А теперь один недовольный клиент — и я чувствую себя так, будто нарушила закон.»

История Сауле — не уникальная. Я слышу подобное всё чаще: бизнес внедряет AI-инструменты, не задумываясь о том, что происходит с данными клиентов. А потом приходит либо претензия, либо — что хуже — проверка регулятора.

«К 2025 году 70% компаний в СНГ будут использовать AI-инструменты в коммуникации с клиентами. Но менее 20% из них имеют чёткую политику защиты персональных данных при работе с AI.»

Исследование Digital Trends Central Asia
Данные по рынку Казахстана и региона, 2024
Цитата

Почему тема конфиденциальности стала критичной в 2025 году

Ещё три года назад чат-боты были простыми скриптами. Нажми кнопку — получи готовый ответ. Данные обрабатывались локально, риски были минимальными. Но потом появился ChatGPT, за ним — Claude, Gemini, и десятки других AI-решений. И всё изменилось.

Современный AI-бот — это не программа на вашем сервере. Это сложная система, которая отправляет запросы во внешние сервисы, получает ответы, обрабатывает контекст. И где-то на этом пути данные вашего клиента — его имя, телефон, история покупок, медицинские предпочтения — могут оказаться в местах, о которых вы даже не подозреваете.

Давайте разберёмся, что именно происходит, когда клиент пишет вашему боту.

Путь данных клиента при обращении к AI-боту

1. Клиент

Пишет в WhatsApp или на сайт

2. Мессенджер

WhatsApp, Telegram, Instagram

3. Ваш провайдер

Платформа бота (CRM, SaaS)

4. AI-провайдер

OpenAI, Anthropic, Google

Важно: На каждом этапе данные могут храниться, логироваться, использоваться для обучения моделей. Вопрос — знаете ли вы, что именно происходит на каждом шаге?

Видите проблему? Клиент написал вам — а его данные прошли через четыре разных системы. Каждая из них имеет свои политики хранения, свои серверы (возможно, в разных странах), свои условия использования.

Это реальность, с которой уже столкнулись компании. В 2024 году в Казахстане вступили в силу обновлённые требования Закона «О персональных данных и их защите». Штрафы выросли, контроль усилился. А в 2025 году регуляторы всё чаще обращают внимание именно на AI-системы — слишком много там «серых зон».

Подробнее о законодательстве мы писали в статье 152-ФЗ и CRM: как хранить персональные данные клиентов законно. Там разобраны общие требования, здесь сосредоточимся именно на AI-специфике.

Какие данные обрабатывает AI-бот (и почему это больше, чем вы думаете)

Когда владельцы бизнеса думают о персональных данных, они обычно представляют себе что-то очевидное: ФИО, телефон, email. С AI-ботами всё сложнее — список данных, которые они обрабатывают, куда длиннее.

Вот как выглядит обычный диалог в косметологической клинике:

Пример диалога клиента с ботом

Клиент:

«Здравствуйте! Меня зовут Асель, хочу записаться на ботокс. У меня аллергия на лидокаин, это важно? Можно на субботу после 14:00? Мой номер +7 701 123 45 67»

Бот:

«Добрый день, Асель! Да, информация об аллергии очень важна — я передам её врачу. На субботу в 14:30 есть свободное время у доктора Ивановой. Записать вас?»

Смотрите, что произошло за 30 секунд диалога. Клиент передал:

Тип данных Пример Категория по закону Риск
Имя Асель Персональные данные Средний
Телефон +7 701 123 45 67 Персональные данные Средний
Медицинская информация Аллергия на лидокаин Специальная категория Высокий
Интересы/намерения Процедура ботокса Персональные данные Средний
График Суббота после 14:00 Персональные данные Низкий

Обратите внимание на строку с медицинской информацией. Это не просто персональные данные — это специальная категория. По казахстанскому законодательству, для обработки таких данных нужны усиленные меры защиты и явное согласие субъекта.

И вот вопрос: знает ли ваш AI-бот, что он только что получил медицинскую информацию? Умеет ли он её маскировать перед отправкой в OpenAI? Хранится ли она отдельно от обычных данных?

В большинстве случаев ответ — нет. Вся переписка уходит в LLM как есть, со всеми ФИО, номерами телефонов и диагнозами. И это проблема.

Где на самом деле хранятся данные ваших клиентов

Типичная архитектура AI-бота — это несколько слоёв, и на каждом могут «оседать» персональные данные.

Мессенджер

WhatsApp, Telegram, Instagram хранят историю сообщений на своих серверах.

  • Серверы: США, ЕС
  • Срок хранения: до удаления пользователем
  • Шифрование: end-to-end (WhatsApp)
Платформа бота

SaaS-решение или ваша CRM, которая управляет ботом.

  • Серверы: зависит от провайдера
  • Срок хранения: по договору
  • Шифрование: различается
AI-провайдер

OpenAI, Anthropic, Google — обрабатывают запросы.

  • Серверы: США (обычно)
  • Срок хранения: 30 дней (API)
  • Для обучения: нет (API)
Логи и аналитика

Системы мониторинга, аналитики, отладки.

  • Серверы: различные
  • Срок хранения: часто не определён
  • Шифрование: не всегда

Получается минимум четыре места, где могут храниться персональные данные. И это без учёта бэкапов, CDN, промежуточных кешей и прочих технических нюансов.

Когда клиент просит «удалить все мои данные» — вам нужно удалить их из всех этих мест. Вопрос: технически возможно ли это? И знаете ли вы, как это сделать?

Подробнее о технической стороне хранения данных — в статье Где хранить данные AI: on-premise или облако.

Маскирование персональных данных: как защитить информацию перед отправкой в AI

Хорошая новость: проблему можно решить на архитектурном уровне. Главный принцип — не отправлять в LLM то, что ему не нужно.

Вспомните пример с клиентом Асель. Что реально нужно AI-модели, чтобы ответить на вопрос о записи?

Без маскирования

"Здравствуйте! Меня зовут Асель, хочу записаться на ботокс. У меня аллергия на лидокаин, это важно? Можно на субботу после 14:00? Мой номер +7 701 123 45 67"

Все персональные данные уходят в OpenAI

С маскированием

"Здравствуйте! Меня зовут [CLIENT_NAME], хочу записаться на ботокс. У меня [MEDICAL_INFO], это важно? Можно на субботу после 14:00? Мой номер [PHONE]"

В AI уходят только токены-заместители

Это называется PII masking (маскирование персонально идентифицируемой информации). Система работает так:

  1. Перехват сообщения — перед отправкой в LLM текст проходит через фильтр
  2. Обнаружение PII — алгоритм находит имена, телефоны, адреса, медицинские данные
  3. Замена на токены — реальные данные заменяются на [CLIENT_NAME], [PHONE] и т.д.
  4. Отправка в LLM — модель получает обезличенный текст
  5. Обратная подстановка — в ответе бота токены заменяются на реальные данные

В итоге клиент видит нормальный ответ с обращением по имени, а AI-провайдер никогда не узнаёт, что Асель — это Асель, а не просто [CLIENT_NAME].

Подробнее о технической реализации маскирования — в статье DLP для AI: маскирование PII и политики хранения в чатах.

Облако или свой сервер: где безопаснее хранить данные

Один из главных вопросов, который задают клиенты. Простого ответа нет — всё зависит от вашей ситуации.

Сравним два подхода без маркетинговых преувеличений.

Критерий Облачное решение On-premise (свой сервер)
Контроль над данными Ограниченный. Данные на серверах провайдера. Полный. Всё хранится у вас.
Локализация Обычно США/ЕС. Есть решения с серверами в СНГ. Казахстан. Полное соответствие требованиям.
Стоимость запуска Низкая. Платите за использование. Высокая. Нужны серверы, специалисты.
Стоимость владения Средняя. Регулярные платежи. Ниже в долгосрочной перспективе.
Безопасность Зависит от провайдера. Крупные — хорошо защищены. Зависит от ваших специалистов.
Масштабируемость Легко. Кликнул — увеличил. Сложнее. Нужно докупать оборудование.
Подходит для Малый и средний бизнес, быстрый старт Крупный бизнес, регулируемые отрасли, госсектор

Моя рекомендация для большинства компаний 10-100 человек: начинайте с облака, но выбирайте провайдера с серверами в СНГ. Это даёт баланс между простотой запуска и соответствием требованиям.

Если вы работаете с особо чувствительными данными (медицина, финансы, государственные контракты) — рассмотрите гибридный подход: основная логика в облаке, но персональные данные хранятся локально и маскируются перед отправкой.

Есть ещё третий вариант — использование локальных LLM (Llama, Mistral), которые работают полностью на ваших серверах. Об этом подробнее в статье Локальные LLM для CRM: Llama, Mistral и приватность данных.

Нужна консультация по защите данных?

Проведём аудит вашего AI-решения и подготовим рекомендации по соответствию требованиям законодательства Казахстана. Первая консультация — бесплатно.

Получить консультацию

Политики хранения: сколько хранить и когда удалять

Одна из главных ошибок — хранить данные «на всякий случай». Чем больше данных вы накопили, тем больше риск при утечке и тем сложнее выполнить запрос на удаление.

Правильный подход — определить для каждого типа данных срок хранения и строго его соблюдать.

Рекомендуемые сроки хранения данных

7
дней

Логи диалогов для отладки

Минимальный срок
30
дней

История переписки для контекста

Стандартный срок
3-5
лет

Данные о сделках (для бухгалтерии)

Требование закона

Совет: Автоматизируйте удаление. Ручное удаление данных — это гарантия, что о нём забудут.

Важный нюанс: срок хранения — это не «через 30 дней можно удалить». Это «через 30 дней нужно удалить». Если данные лежат дольше положенного без веской причины — вы нарушаете принцип минимизации данных.

И помните о резервных копиях. Данные, которые вы «удалили» из основной базы, могут спокойно жить в бэкапах месяцами. Политика хранения должна распространяться и на них.

Согласие на обработку: что должно быть в политике

Если вы используете AI-бота для общения с клиентами, вам нужно их согласие на обработку персональных данных. Это не формальность — это требование закона.

Но просто добавить галочку «Согласен на обработку данных» — недостаточно. Согласие должно быть информированным. Клиент должен понимать:

  • Какие именно данные вы собираете
  • Для каких целей используете
  • Кому передаёте (включая AI-провайдеров)
  • Как долго храните
  • Как он может запросить удаление

Пример формулировки для политики конфиденциальности

«При общении с нашим AI-помощником мы обрабатываем следующие данные:

  • Ваше имя и контактные данные
  • Содержание переписки
  • Информация о заказах и предпочтениях

Для обработки запросов мы используем AI-технологии. Ваши данные могут передаваться партнёрам-обработчикам, расположенным в США (OpenAI LLC), с применением мер защиты согласно требованиям законодательства Республики Казахстан.

Мы храним переписку не более 30 дней. Вы можете запросить удаление данных в любое время, написав нам.»

Обратите внимание: мы честно говорим, что данные передаются в OpenAI, и указываем, где находятся их серверы. Это не пугает большинство клиентов, но защищает вас юридически.

Более подробные шаблоны политик и согласий — в статье Юридически безопасные боты: согласия, уведомления, хранение записей.

Право на забвение: как удалять данные из AI-памяти

Вернёмся к ситуации Сауле. Клиент просит удалить все свои данные. Что делать?

Первое, что нужно понимать: это законное право клиента. По казахстанскому законодательству, субъект персональных данных может в любой момент отозвать согласие и потребовать удаления.

Вот пошаговый алгоритм:

1
Подтвердите личность

Убедитесь, что запрос пришёл от самого клиента, а не от третьего лица. Запросите подтверждение с того же номера/email.

2
Удалите из CRM/базы данных

Удалите или обезличьте данные клиента в вашей основной системе. Сохраните обезличенную историю сделок, если это требуется для бухгалтерии.

3
Удалите из логов бота

Если платформа бота хранит историю переписки — удалите её. Большинство SaaS-решений позволяют это сделать через API или интерфейс.

4
Уточните у AI-провайдера

При использовании API OpenAI/Anthropic данные обычно не сохраняются для обучения и удаляются через 30 дней. Подтвердите это в условиях сервиса.

5
Подтвердите клиенту

Отправьте письменное подтверждение, что данные удалены. Храните это подтверждение — оно может понадобиться при проверке.

Важный момент про AI-провайдеров. Если вы используете OpenAI API (не ChatGPT через браузер, а именно API), ваши данные не используются для обучения моделей по умолчанию. Это прямо указано в их политике. То же касается Anthropic Claude API.

Но если ваши сотрудники использовали обычный ChatGPT или Claude для обработки клиентских запросов — ситуация сложнее. В бесплатных версиях данные могут использоваться для обучения. Именно поэтому критически важно использовать корпоративные API-решения, а не «бытовые» чаты.

Чек-лист compliance для AI-проекта

Вот минимальный набор пунктов, которые нужно проверить перед запуском AI-бота в продакшен:

Чек-лист конфиденциальности AI-бота

Документация
  • Политика конфиденциальности обновлена с учётом AI
  • Согласие на обработку данных включает AI-обработку
  • Указано, где хранятся данные (страны, провайдеры)
  • Есть инструкция по запросам на удаление
Технические меры
  • Настроено маскирование PII перед отправкой в LLM
  • Используется API (не веб-интерфейс ChatGPT)
  • Настроено автоматическое удаление старых логов
  • Данные передаются по шифрованным каналам (HTTPS)
Организационные меры
  • Сотрудники обучены правилам работы с данными
  • Есть ответственный за защиту персональных данных
  • Регулярный аудит доступов (кто что видит)
Договоры и соглашения
  • Договор с провайдером бота включает DPA
  • Условия AI-провайдера (OpenAI, Anthropic) изучены
  • Есть план действий на случай утечки данных

Если вы не можете поставить галочку хотя бы напротив половины пунктов — стоит задуматься. Запуск AI-бота без базовых мер защиты — это тикающая бомба. Рано или поздно придёт либо недовольный клиент, либо проверка.

Полный аудит AI-решения по безопасности — в статье Аудит AI-решений: чек-лист для службы безопасности перед внедрением.

Часто задаваемые вопросы

Нет, если вы используете платный API. По умолчанию данные, переданные через API OpenAI и Anthropic Claude, не используются для обучения моделей. Это прямо указано в их условиях. Данные могут храниться до 30 дней для мониторинга злоупотреблений, но не используются для улучшения моделей. Однако бесплатные версии ChatGPT и Claude (веб-интерфейс) — другая история. Там данные могут использоваться для обучения, если не отключить эту опцию в настройках.

По законодательству Казахстана прямого требования об этом нет. Однако практика показывает, что честность повышает доверие. Рекомендуем указывать в начале диалога: «Я AI-помощник компании X, могу ответить на ваши вопросы. Если нужен живой оператор — скажите.» Это этичнее, снижает риск претензий и, по нашим данным, не снижает конверсию.

Это сложная ситуация. Формально вы становитесь обработчиком данных третьего лица без его согласия. Рекомендации: (1) Обучите бота не запрашивать данные третьих лиц; (2) Если клиент сам их передаёт — маскируйте перед отправкой в LLM; (3) Не храните такие данные дольше необходимого; (4) В политике укажите, что клиент несёт ответственность за передачу данных третьих лиц.

Да, можно. Закон о персональных данных РК не запрещает трансграничную передачу данных, но требует обеспечить адекватный уровень защиты. Для использования OpenAI, Anthropic и других провайдеров: (1) Укажите в политике конфиденциальности, что данные передаются за рубеж; (2) Используйте маскирование PII, чтобы минимизировать объём передаваемых данных; (3) Заключите договор с вашим провайдером бота, который включает требования к защите данных. Для особо чувствительных данных (медицина, госсектор) рассмотрите локальные LLM или on-premise решения.

По состоянию на 2025 год, штрафы для юридических лиц могут составлять от 50 до 500 МРП (от ~185 000 до ~1 850 000 тенге) за различные нарушения. За повторные нарушения — выше. Но главный риск — не штрафы, а репутационные потери. Одна утечка данных может стоить вам сотен клиентов и доверия рынка. Подробнее о законодательстве — в статье Compliance и GDPR в CRM.

Заключение: конфиденциальность — это не бюрократия, а конкурентное преимущество

Вернёмся к истории Сауле. После того разговора мы провели аудит её AI-решения. Выяснилось, что данные действительно уходили в OpenAI без маскирования, политика конфиденциальности устарела, а процедуры удаления данных не было вообще.

Мы потратили две недели на исправление: настроили маскирование PII, обновили политику, создали процедуру обработки запросов на удаление, обучили администраторов. Это стоило денег и времени — но гораздо меньше, чем могла бы стоить проверка регулятора или публичный скандал.

А вот что интересно: после обновления политики конфиденциальности несколько клиентов написали, что им нравится честный подход. «Вы первые, кто прямо сказал, что используете AI и объяснили, что с данными», — написала одна из них. Прозрачность стала конкурентным преимуществом.

Сегодня AI — это не экзотика, а рабочий инструмент. И как любой инструмент, он требует правильного обращения. Защита персональных данных — это не бюрократия и не «бумажная работа». Это базовая гигиена бизнеса в 2025 году.

Если вы используете AI-бота или планируете его внедрить — потратьте время на защиту данных сейчас. Это дешевле, чем разгребать последствия потом.

Нужен аудит вашего AI-решения?

Проведём комплексный аудит защиты персональных данных в вашем AI-боте: проверим архитектуру, политики, договоры. Подготовим рекомендации и поможем устранить уязвимости.

Заказать аудит

Читайте также

DLP для AI: маскирование PII и политики хранения

Техническая реализация защиты данных в AI-чатах

AI и 152-ФЗ: персональные данные и закон

Правовые аспекты использования AI в России и СНГ

Локальные LLM: Llama, Mistral и приватность

Как использовать AI без передачи данных за рубеж

Compliance и GDPR в CRM

Как хранить данные клиентов законно и безопасно