Представьте: январь 2025-го, алматинская IT-компания празднует победу — подписан контракт с серьёзным немецким холдингом на разработку чат-бота. Команда набрана, дизайнеры уже рисуют интерфейсы, бэкенд потихоньку обрастает кодом. И вдруг письмо из Германии сыплется как снег на голову: «Коллеги, пришлите, пожалуйста, документацию соответствия AI Act. Без неё бота на продакшен не выкатим».
Тимлид в панике открывает Google, вбивает «AI Act documentation» — и понимает, что всё сложнее, чем казалось. 400 страниц законодательного текста, термины вроде «deployer» и «high-risk system», дедлайны горят синим пламенем. Узнаёте себя? Или пока нет, но интуиция подсказывает, что скоро узнаете?
А ведь EU AI Act — это совсем не какая-то там бюрократическая блажь евросоюзных чиновников. Это реально первый в мире полноценный закон про искусственный интеллект, который вступил в силу ещё в августе 2024-го. И да, он касается даже тех, кто работает из Нур-Султана или Караганды и думал, что европейские регуляции — это не про них.
«Закон применяется не к тому, где зарегистрирована компания, а к тому, где используется AI-система. Разработали бота в Казахстане для клиента в ЕС — добро пожаловать под юрисдикцию EU AI Act»
Отличный вопрос, который нам задают на каждой второй консультации. И ответ простой: потому что этот закон работает по тому же принципу, что и знаменитый GDPR — не важно, где вы сидите, важно, где ваш продукт используется.
Грубо говоря, если ваш AI хоть как-то касается европейцев — закон на вас распространяется. Вот конкретные случаи:
Ваши разработчики сидят в Алматы, а бот будет обслуживать клиентов немецкого или французского холдинга? Тогда не имеет значения, где ваш офис — важно, где работает продукт.
Допустим, интернет-магазин у вас в Казахстане, но среди покупателей есть европейцы, которых обслуживает AI-бот. Что ж, поздравляю — вы тоже в игре.
Серверы где-нибудь во Франкфурте, API от европейских провайдеров, данные гоняются через датацентры в ЕС? Это тоже может притянуть регуляцию к вашему порогу.
Сейчас клиенты только местные, но в голове уже крутятся мысли про европейский рынок? Проще сразу закладывать compliance, чем потом в авральном режиме всё переделывать.
Но знаете что? Даже если прямо сейчас все ваши клиенты — казахстанцы, за этим законом всё равно стоит следить. Почему? Да потому что наши регуляторы любят присматриваться к европейскому опыту. Разговоры про какое-то своё регулирование AI уже идут. Кто подготовится заранее — тот потом не будет бегать с горящими глазами в поисках срочных решений.
И если уж совсем честно — требования AI Act это не какая-то марсианская бюрократия. Это банально здравый смысл: объясни людям, с чем они имеют дело, защищай данные, записывай, что делаешь. Такой подход сделает любой продукт лучше, даже если формально закон вас пока не касается.
Ладно, сам регламент — это толстенный талмуд страниц на четыреста, который нормальный человек читать не станет (и его можно понять). Но главную идею реально ухватить за пять минут. Смысл такой: чем страшнее последствия от твоей AI-штуковины — тем строже спрос. Поэтому законодатели разбили все AI-системы на четыре категории риска. Смотрите:
Социальный скоринг, манипулирование поведением, массовая биометрия без согласия
HR-отбор, кредитный скоринг, медицинская диагностика, критическая инфраструктура
Чат-боты, голосовые помощники, генераторы контента, дипфейки
Спам-фильтры, рекомендательные системы, игры с AI
Ну и теперь хорошая новость: типичный чат-бот для бизнеса обычно попадает в третью категорию — ограниченный риск. То есть никакой сертификации, независимых аудиторов и прочих бюрократических кошмаров, которые светят разработчикам высокорисковых систем. Звучит неплохо, да? Но погодите радоваться — расслабляться пока рановато.
Если ваш чат-бот занимается чем-то из этого — добро пожаловать в высшую лигу с серьёзными требованиями:
Хватит теории, давайте к делу. Допустим, у вас стандартный бизнес-бот — консультирует клиентов, помогает с заказами, отвечает на вопросы. Попадает в категорию ограниченного риска. Что от вас хотят? По сути, одно волшебное слово: прозрачность. Звучит размыто? Сейчас покажу, что это значит на практике.
Статья 50 требует простую вещь: человек должен понимать, что по ту сторону экрана не живой оператор Света из Караганды, а программа. И предупредить нужно так, чтобы это реально заметили, а не спрятать мелким шрифтом:
Лайфхак из практики: Просто пусть бот в первом же сообщении скажет: «Привет! Я — виртуальный помощник компании X. Чем могу помочь?» И всё, галочка поставлена. Пять минут работы, правда же?
Тут уже интереснее. Если бот не просто выдаёт заготовленные ответы из базы, а на ходу генерирует тексты, картинки, аудио или видео — пользователь должен об этом знать.
Кстати, есть нюанс: Если AI что-то сгенерировал, но потом живой человек это вычитал, поправил и дал добро — требования к маркировке уже не такие строгие.
А вот это уже более тонкая материя. Если ваш бот пытается считывать настроение пользователя — анализирует тон сообщений, ловит эмоции по голосу — придётся предупреждать отдельно.
Анализировать тональность сообщений, чтобы понять, доволен ли клиент — но только если честно сказали об этом
Следить за эмоциями сотрудников на работе или студентов в вузе — за редкими исключениями это под запретом
Если вы используете функции анализа эмоций клиента — обязательно добавьте это в политику конфиденциальности и уведомляйте пользователей в начале диалога.
Ну куда же без бумажек! Но не паникуйте — это не научная диссертация на триста страниц. Ниже — минимальный набор документов, который позволит спать спокойно и не краснеть, когда европейский заказчик спросит: «А покажите compliance».
Считайте это визитной карточкой вашей системы. Что умеет, с какими данными возится, кому предназначена, и где может дать маху.
Это текст для ваших клиентов. Пишите человеческим языком, как будто объясняете маме — без юридического канцелярита и умных словечек.
«Вы общаетесь с AI-ассистентом [Название]. Бот использует технологии искусственного интеллекта для обработки ваших вопросов. Ответы генерируются автоматически и могут содержать неточности. Для сложных вопросов рекомендуем связаться с оператором. Нажимая "Продолжить", вы подтверждаете, что понимаете это.»
Здесь вы честно описываете, что может пойти не так с вашим ботом, и как вы это предотвращаете.
Что собираете, где храните, кому передаёте, сколько держите, и как клиент может попросить всё удалить.
Как живые люди контролируют вашего AI, и что делать пользователю, если бот завис, несёт чушь или просто не справляется.
Понимаем. Мы делаем ботов, которые сразу строятся с учётом EU AI Act — вся документация, прозрачность, безопасность уже в комплекте. Не придётся потом в панике что-то дописывать за три дня до дедлайна.
Давайте поговоримТеперь про сроки. Хорошая новость: закон вводится постепенно, не обрушивается на голову всеми требованиями разом. Время подготовиться ещё есть. Плохая новость: не так много времени, как хотелось бы, и кое-что уже работает прямо сейчас.
Социальный скоринг, манипулятивный AI, биометрия без согласия — уже запрещены
Disclosure, маркировка AI-контента, правила для эмоционального распознавания
Полный набор требований для HR-ботов, кредитного скоринга, медицинских AI
Включая требования к general-purpose AI моделям (GPT, Claude и т.д.)
Если кто-то подумал, что это просто добрые советы от европейских бюрократов — увы, нет. У AI Act очень острые зубы. Штрафы сопоставимы с GDPR, а там, если помните, суммы бывают такие, что мало не покажется.
или 7% от оборота
За использование запрещённых AI-практик
или 3% от оборота
За нарушение требований для высокорисковых систем
или 1.5% от оборота
За нарушение требований прозрачности (чат-боты)
Да, для небольших компаний штрафы немного скромнее, но даже «скромные» 7.5 миллионов евро — это катастрофа для большинства. Так что лучше потратить пару дней на документацию сейчас, чем потом объяснять регуляторам, почему вы решили, что вас это не касается.
Ладно, хватит пугать. Давайте к конкретике: что реально нужно сделать прямо сейчас, если вы в Казахстане и либо делаете AI-ботов, либо используете их в своём бизнесе.
Сядьте с чашкой кофе и составьте список всех ботов и AI-штук, которые у вас работают. По каждой позиции прикиньте:
Самое быстрое и простое действие: пусть бот сразу представляется как AI. «Привет, я — виртуальный помощник» — пять минут работы, а главное требование уже выполнено. Не откладывайте.
Начните с AI System Card и Transparency Notice — берите шаблоны из этой статьи, адаптируйте под свой случай. Это не докторская, толковый юрист или продакт справятся за пару дней.
Добавьте кнопку «Позвать человека» — чтобы клиент мог выбраться из разговора с ботом. Настройте просмотр логов. Зафиксируйте, кто и как за этим следит. Подробности: как внедрять LLM безопасно.
Назначьте кого-то ответственным за AI compliance — можно по совместительству. Пусть проверка соответствия станет обычным этапом разработки, а не авралом перед релизом. Расскажите команде, зачем всё это нужно. Подробнее: аудит AI-решений.
За последние месяцы мы провели кучу консультаций с казахстанскими компаниями, и одни и те же вопросы всплывают снова и снова. Собрали самые популярные и отвечаем честно, без юридической воды.
Если все клиенты — местные и на Европу вы даже не смотрите, то формально AI Act вас не трогает. Но есть два «но». Первое: Казахстан вполне может скопировать что-то подобное через пару лет — и вы будете во всеоружии. Второе: требования AI Act — это по сути здравый смысл. Прозрачность, безопасность, документирование. Даже без закона такой подход делает продукт качественнее, а бизнес — надёжнее.
Не совсем так. OpenAI или Anthropic отвечают за саму модель — что она работает корректно и не сходит с ума. А вот вы, как тот, кто эту модель запихивает в свой продукт (в терминах закона — deployer), отвечаете за всё остальное. Как используете, предупреждаете ли пользователей, как обрабатываете данные. Отмазка «это ChatGPT виноват, не мы» — не сработает.
То, что LLM иногда несёт околесицу — само по себе не нарушение. Все понимают, что модели не идеальны. Но вот что от вас требуется: честно предупредить, что бот может ошибиться; не совать его туда, где ошибки критичны (медицина, юридические советы) — или хотя бы добавить серьёзные проверки. И да, известные косяки нужно задокументировать — это часть прозрачности.
Как минимизировать фантазии бота — рассказываем отдельно: Anti-галлюцинации: как заставить LLM отвечать только по фактам.
Да, есть. Для малого и среднего бизнеса предусмотрены послабления — особенно по части документации и всяких оценок соответствия. Штрафы тоже считаются пропорционально размеру компании. Но вот базовые требования прозрачности (типа disclosure «это AI») — они для всех одинаковые, тут уже никуда не денешься.
AI Act — это отдельный закон, он GDPR не заменяет и не отменяет. Если ваш бот работает с персональными данными европейцев — готовьтесь соответствовать обоим законам сразу. А для казахстанских данных у нас ещё 152-ФЗ есть. Но есть и хорошая новость: многие требования у них пересекаются (прозрачность, безопасность, права пользователей). То есть когда вы готовитесь к одному закону, автоматически подтягиваетесь и под остальные. Детали тут: AI и GDPR/152-ФЗ: практическое руководство.
Подведём итог. У вас обычный чат-бот или голосовой помощник, который не принимает критических решений? Вот минимальный чек-лист, чтобы точно не нарваться на проблемы:
Честно говоря, когда разбираешься — не так уж и страшно. По большому счёту, это просто оформление того, что любая адекватная команда и так должна делать: быть честными с пользователями, следить за безопасностью, что-то где-то записывать. Главное — не откладывать в долгий ящик. Потому что «потом» обычно наступает ровно в тот момент, когда европейский клиент уже прислал письмо: «А где ваш AI Act compliance?»
Ну а если вам проще сразу сделать бота с учётом всех этих требований, чем разбираться самим — пишите, поможем. Мы этим занимаемся каждый день и знаем все подводные камни.