EU AI Act и чат-боты: что нужно знать бизнесу в Казахстане
  • AI Governance
  • Автор: Команда CrmAI
  • Опубликовано:
EU AI Act для чат-ботов: требования прозрачности, документация и соответствие регуляциям для AI-систем

Представьте: январь 2025-го, алматинская IT-компания празднует победу — подписан контракт с серьёзным немецким холдингом на разработку чат-бота. Команда набрана, дизайнеры уже рисуют интерфейсы, бэкенд потихоньку обрастает кодом. И вдруг письмо из Германии сыплется как снег на голову: «Коллеги, пришлите, пожалуйста, документацию соответствия AI Act. Без неё бота на продакшен не выкатим».

Тимлид в панике открывает Google, вбивает «AI Act documentation» — и понимает, что всё сложнее, чем казалось. 400 страниц законодательного текста, термины вроде «deployer» и «high-risk system», дедлайны горят синим пламенем. Узнаёте себя? Или пока нет, но интуиция подсказывает, что скоро узнаете?

А ведь EU AI Act — это совсем не какая-то там бюрократическая блажь евросоюзных чиновников. Это реально первый в мире полноценный закон про искусственный интеллект, который вступил в силу ещё в августе 2024-го. И да, он касается даже тех, кто работает из Нур-Султана или Караганды и думал, что европейские регуляции — это не про них.

«Закон применяется не к тому, где зарегистрирована компания, а к тому, где используется AI-система. Разработали бота в Казахстане для клиента в ЕС — добро пожаловать под юрисдикцию EU AI Act»

Экстерриториальный принцип
Статья 2 EU AI Act
Цитата

Постойте, причём тут мы? Ведь закон же европейский!

Отличный вопрос, который нам задают на каждой второй консультации. И ответ простой: потому что этот закон работает по тому же принципу, что и знаменитый GDPR — не важно, где вы сидите, важно, где ваш продукт используется.

Грубо говоря, если ваш AI хоть как-то касается европейцев — закон на вас распространяется. Вот конкретные случаи:

Когда EU AI Act касается казахстанского бизнеса

1
Делаете бота для европейского клиента

Ваши разработчики сидят в Алматы, а бот будет обслуживать клиентов немецкого или французского холдинга? Тогда не имеет значения, где ваш офис — важно, где работает продукт.

2
Продаёте европейцам

Допустим, интернет-магазин у вас в Казахстане, но среди покупателей есть европейцы, которых обслуживает AI-бот. Что ж, поздравляю — вы тоже в игре.

3
Используете европейскую инфраструктуру

Серверы где-нибудь во Франкфурте, API от европейских провайдеров, данные гоняются через датацентры в ЕС? Это тоже может притянуть регуляцию к вашему порогу.

4
Планируете выход в Европу

Сейчас клиенты только местные, но в голове уже крутятся мысли про европейский рынок? Проще сразу закладывать compliance, чем потом в авральном режиме всё переделывать.

Но знаете что? Даже если прямо сейчас все ваши клиенты — казахстанцы, за этим законом всё равно стоит следить. Почему? Да потому что наши регуляторы любят присматриваться к европейскому опыту. Разговоры про какое-то своё регулирование AI уже идут. Кто подготовится заранее — тот потом не будет бегать с горящими глазами в поисках срочных решений.

И если уж совсем честно — требования AI Act это не какая-то марсианская бюрократия. Это банально здравый смысл: объясни людям, с чем они имеют дело, защищай данные, записывай, что делаешь. Такой подход сделает любой продукт лучше, даже если формально закон вас пока не касается.

Суть закона на пальцах: что там вообще написано?

Ладно, сам регламент — это толстенный талмуд страниц на четыреста, который нормальный человек читать не станет (и его можно понять). Но главную идею реально ухватить за пять минут. Смысл такой: чем страшнее последствия от твоей AI-штуковины — тем строже спрос. Поэтому законодатели разбили все AI-системы на четыре категории риска. Смотрите:

Пирамида рисков EU AI Act

Недопустимый риск — ЗАПРЕЩЕНО

Социальный скоринг, манипулирование поведением, массовая биометрия без согласия

Высокий риск — строгие требования

HR-отбор, кредитный скоринг, медицинская диагностика, критическая инфраструктура

Ограниченный риск — требования прозрачности

Чат-боты, голосовые помощники, генераторы контента, дипфейки

Минимальный риск — без специальных требований

Спам-фильтры, рекомендательные системы, игры с AI

Ну и теперь хорошая новость: типичный чат-бот для бизнеса обычно попадает в третью категорию — ограниченный риск. То есть никакой сертификации, независимых аудиторов и прочих бюрократических кошмаров, которые светят разработчикам высокорисковых систем. Звучит неплохо, да? Но погодите радоваться — расслабляться пока рановато.

Стоп! Когда ваш бот становится «высоким риском»

Если ваш чат-бот занимается чем-то из этого — добро пожаловать в высшую лигу с серьёзными требованиями:

  • Решает, кого нанять — скажем, бот-рекрутер самостоятельно отсеивает резюме и выбирает, кого звать на собеседование
  • Одобряет или рубит кредиты — банковский бот, который смотрит на ваши данные и говорит «одобрено» или «извините, нет»
  • Влияет на поступление в вуз — бот, который решает судьбу абитуриента
  • Управляет чем-то критически важным — энергосети, водоснабжение, транспортные системы и прочие вещи, где сбой обойдётся дорого

Ладно, а что конкретно нужно делать с чат-ботом?

Хватит теории, давайте к делу. Допустим, у вас стандартный бизнес-бот — консультирует клиентов, помогает с заказами, отвечает на вопросы. Попадает в категорию ограниченного риска. Что от вас хотят? По сути, одно волшебное слово: прозрачность. Звучит размыто? Сейчас покажу, что это значит на практике.

1

Пользователь должен знать, что общается с AI

Статья 50 требует простую вещь: человек должен понимать, что по ту сторону экрана не живой оператор Света из Караганды, а программа. И предупредить нужно так, чтобы это реально заметили, а не спрятать мелким шрифтом:

Правильно
  • Сразу написать: «Вы общаетесь с AI-ассистентом»
  • Честно сказать: «Это чат-бот, не живой оператор»
  • Показать это в самом начале разговора
  • Повесить значок «AI» рядом с аватаркой бота
Неправильно
  • Назвать бота «Анна» или «Дмитрий» без пояснений
  • Засунуть уведомление мелким шрифтом куда-то в футер
  • Написать об этом только в Terms of Service, которые никто не читает
  • Вообще ничего не говорить и притворяться человеком

Лайфхак из практики: Просто пусть бот в первом же сообщении скажет: «Привет! Я — виртуальный помощник компании X. Чем могу помочь?» И всё, галочка поставлена. Пять минут работы, правда же?

2

AI-генерированный контент нужно маркировать

Тут уже интереснее. Если бот не просто выдаёт заготовленные ответы из базы, а на ходу генерирует тексты, картинки, аудио или видео — пользователь должен об этом знать.

Как это работает на практике:
  • Бот сам придумывает описания товаров? Нужно пометить, что текст сгенерирован
  • Рисует картинки по запросу — скажем, визуализации интерьера? Обязательно маркировать
  • Отвечает синтезированным голосом, а не записанными фразами? Тоже нужно предупредить
  • А вот если бот просто выдаёт готовые шаблоны из базы — это не AI-контент, можно не маркировать

Кстати, есть нюанс: Если AI что-то сгенерировал, но потом живой человек это вычитал, поправил и дал добро — требования к маркировке уже не такие строгие.

3

Распознавание эмоций — тут поосторожнее

А вот это уже более тонкая материя. Если ваш бот пытается считывать настроение пользователя — анализирует тон сообщений, ловит эмоции по голосу — придётся предупреждать отдельно.

Можно, но с предупреждением

Анализировать тональность сообщений, чтобы понять, доволен ли клиент — но только если честно сказали об этом

А вот это нельзя

Следить за эмоциями сотрудников на работе или студентов в вузе — за редкими исключениями это под запретом

Если вы используете функции анализа эмоций клиента — обязательно добавьте это в политику конфиденциальности и уведомляйте пользователей в начале диалога.

А бумаги какие-то писать надо?

Ну куда же без бумажек! Но не паникуйте — это не научная диссертация на триста страниц. Ниже — минимальный набор документов, который позволит спать спокойно и не краснеть, когда европейский заказчик спросит: «А покажите compliance».

1. AI System Card (паспорт вашего бота)

Считайте это визитной карточкой вашей системы. Что умеет, с какими данными возится, кому предназначена, и где может дать маху.

Что там должно быть:
  • Как называется и какая версия (звучит очевидно, но многие забывают)
  • Для чего эта штука вообще нужна и кто ей пользуется
  • На чём работает — GPT-4, Claude, какая-то своя модель?
  • Что на вход получает и что выдаёт на выходе
  • Где может ошибиться — честно, без прикрас

2. Transparency Notice (что видят пользователи)

Это текст для ваших клиентов. Пишите человеческим языком, как будто объясняете маме — без юридического канцелярита и умных словечек.

Шаблон для чат-бота:

«Вы общаетесь с AI-ассистентом [Название]. Бот использует технологии искусственного интеллекта для обработки ваших вопросов. Ответы генерируются автоматически и могут содержать неточности. Для сложных вопросов рекомендуем связаться с оператором. Нажимая "Продолжить", вы подтверждаете, что понимаете это.»

3. Risk Assessment (где может рвануть)

Здесь вы честно описываете, что может пойти не так с вашим ботом, и как вы это предотвращаете.

Типичные головные боли:
  • Бот фантазирует: выдаёт несуществующую информацию за правду. Что делаем: проверяем ответы по базе знаний, при сомнениях бот говорит «не знаю»
  • Утечка данных: бот случайно выбалтывает что-то конфиденциальное. Решение: маскирование PII, жёсткий контроль доступа
  • Взлом через промпт: хитрый пользователь пытается заставить бота делать то, что не надо. Защищаемся: threat modeling и фильтрация

4. Data Governance Policy (как обращаетесь с данными)

Что собираете, где храните, кому передаёте, сколько держите, и как клиент может попросить всё удалить.

На какие вопросы нужно ответить:
  • Что именно оседает у вас из диалогов — только текст? Или ещё какие-то метаданные?
  • Сколько времени вы храните логи переписок?
  • Используете ли диалоги, чтобы дообучать модель?
  • Как человек может попросить удалить свои данные — и сделаете ли вы это?

5. Human Oversight Procedures (кто следит за машиной)

Как живые люди контролируют вашего AI, и что делать пользователю, если бот завис, несёт чушь или просто не справляется.

Что нужно расписать:
  • Как клиент может в любой момент попросить живого человека вместо бота
  • Кто регулярно просматривает диалоги и как часто это происходит
  • Что делать, если бот явно накосячил — куда это эскалируется
  • Как и кем вносятся изменения в поведение бота

Голова уже кругом от всего этого?

Понимаем. Мы делаем ботов, которые сразу строятся с учётом EU AI Act — вся документация, прозрачность, безопасность уже в комплекте. Не придётся потом в панике что-то дописывать за три дня до дедлайна.

Давайте поговорим

Когда это всё начнёт работать? И что будет, если забить?

Теперь про сроки. Хорошая новость: закон вводится постепенно, не обрушивается на голову всеми требованиями разом. Время подготовиться ещё есть. Плохая новость: не так много времени, как хотелось бы, и кое-что уже работает прямо сейчас.

Ключевые даты EU AI Act

Уже действует
Фев 2025
Запрет на недопустимые практики

Социальный скоринг, манипулятивный AI, биометрия без согласия — уже запрещены

Скоро
Авг 2025
Требования прозрачности для чат-ботов

Disclosure, маркировка AI-контента, правила для эмоционального распознавания

2026
Авг 2026
Требования для высокорисковых систем

Полный набор требований для HR-ботов, кредитного скоринга, медицинских AI

2027
Авг 2027
Все требования в полной силе

Включая требования к general-purpose AI моделям (GPT, Claude и т.д.)

Теперь про штрафы (вот тут уже не до шуток)

Если кто-то подумал, что это просто добрые советы от европейских бюрократов — увы, нет. У AI Act очень острые зубы. Штрафы сопоставимы с GDPR, а там, если помните, суммы бывают такие, что мало не покажется.

35 млн €

или 7% от оборота

За использование запрещённых AI-практик

15 млн €

или 3% от оборота

За нарушение требований для высокорисковых систем

7.5 млн €

или 1.5% от оборота

За нарушение требований прозрачности (чат-боты)

Да, для небольших компаний штрафы немного скромнее, но даже «скромные» 7.5 миллионов евро — это катастрофа для большинства. Так что лучше потратить пару дней на документацию сейчас, чем потом объяснять регуляторам, почему вы решили, что вас это не касается.

Окей, убедили. Что делать прямо сейчас?

Ладно, хватит пугать. Давайте к конкретике: что реально нужно сделать прямо сейчас, если вы в Казахстане и либо делаете AI-ботов, либо используете их в своём бизнесе.

1
Сначала разберитесь, что у вас вообще есть

Сядьте с чашкой кофе и составьте список всех ботов и AI-штук, которые у вас работают. По каждой позиции прикиньте:

  • Где это используется? Только в Казахстане, или Европа тоже в зоне охвата?
  • В какую категорию риска это попадает? (Скорее всего, ограниченный)
  • Понимает ли пользователь, что общается с машиной?
2
Добавьте честное предупреждение

Самое быстрое и простое действие: пусть бот сразу представляется как AI. «Привет, я — виртуальный помощник» — пять минут работы, а главное требование уже выполнено. Не откладывайте.

3
Накидайте базовые документы

Начните с AI System Card и Transparency Notice — берите шаблоны из этой статьи, адаптируйте под свой случай. Это не докторская, толковый юрист или продакт справятся за пару дней.

4
Обеспечьте человеческий контроль

Добавьте кнопку «Позвать человека» — чтобы клиент мог выбраться из разговора с ботом. Настройте просмотр логов. Зафиксируйте, кто и как за этим следит. Подробности: как внедрять LLM безопасно.

5
Сделайте это частью рабочего процесса

Назначьте кого-то ответственным за AI compliance — можно по совместительству. Пусть проверка соответствия станет обычным этапом разработки, а не авралом перед релизом. Расскажите команде, зачем всё это нужно. Подробнее: аудит AI-решений.

«А вот у меня такая ситуация...» — разбираем частые вопросы

За последние месяцы мы провели кучу консультаций с казахстанскими компаниями, и одни и те же вопросы всплывают снова и снова. Собрали самые популярные и отвечаем честно, без юридической воды.

Если все клиенты — местные и на Европу вы даже не смотрите, то формально AI Act вас не трогает. Но есть два «но». Первое: Казахстан вполне может скопировать что-то подобное через пару лет — и вы будете во всеоружии. Второе: требования AI Act — это по сути здравый смысл. Прозрачность, безопасность, документирование. Даже без закона такой подход делает продукт качественнее, а бизнес — надёжнее.

Не совсем так. OpenAI или Anthropic отвечают за саму модель — что она работает корректно и не сходит с ума. А вот вы, как тот, кто эту модель запихивает в свой продукт (в терминах закона — deployer), отвечаете за всё остальное. Как используете, предупреждаете ли пользователей, как обрабатываете данные. Отмазка «это ChatGPT виноват, не мы» — не сработает.

То, что LLM иногда несёт околесицу — само по себе не нарушение. Все понимают, что модели не идеальны. Но вот что от вас требуется: честно предупредить, что бот может ошибиться; не совать его туда, где ошибки критичны (медицина, юридические советы) — или хотя бы добавить серьёзные проверки. И да, известные косяки нужно задокументировать — это часть прозрачности.

Как минимизировать фантазии бота — рассказываем отдельно: Anti-галлюцинации: как заставить LLM отвечать только по фактам.

Да, есть. Для малого и среднего бизнеса предусмотрены послабления — особенно по части документации и всяких оценок соответствия. Штрафы тоже считаются пропорционально размеру компании. Но вот базовые требования прозрачности (типа disclosure «это AI») — они для всех одинаковые, тут уже никуда не денешься.

AI Act — это отдельный закон, он GDPR не заменяет и не отменяет. Если ваш бот работает с персональными данными европейцев — готовьтесь соответствовать обоим законам сразу. А для казахстанских данных у нас ещё 152-ФЗ есть. Но есть и хорошая новость: многие требования у них пересекаются (прозрачность, безопасность, права пользователей). То есть когда вы готовитесь к одному закону, автоматически подтягиваетесь и под остальные. Детали тут: AI и GDPR/152-ФЗ: практическое руководство.

Коротко: что точно нужно сделать

Подведём итог. У вас обычный чат-бот или голосовой помощник, который не принимает критических решений? Вот минимальный чек-лист, чтобы точно не нарваться на проблемы:

Чек-лист соответствия для чат-бота

Добавлен disclosure «Вы общаетесь с AI»
AI-контент помечен (если генерируется)
Есть возможность переключения на оператора
Подготовлен AI System Card
Задокументированы риски и митигации
Описана политика работы с данными
Настроен мониторинг диалогов
Назначен ответственный за AI compliance

Честно говоря, когда разбираешься — не так уж и страшно. По большому счёту, это просто оформление того, что любая адекватная команда и так должна делать: быть честными с пользователями, следить за безопасностью, что-то где-то записывать. Главное — не откладывать в долгий ящик. Потому что «потом» обычно наступает ровно в тот момент, когда европейский клиент уже прислал письмо: «А где ваш AI Act compliance?»

Ну а если вам проще сразу сделать бота с учётом всех этих требований, чем разбираться самим — пишите, поможем. Мы этим занимаемся каждый день и знаем все подводные камни.