В прошлом году наблюдал за одной историей в Алматы. Крупный дистрибьютор строительных материалов запустил AI-бота для обработки заявок. Первые месяцы всё было прекрасно — бот закрывал 70% вопросов, менеджеры перестали тонуть в рутине, клиенты писали: «Вау, как быстро!»
А потом началось то, что всегда начинается, когда за AI никто толком не отвечает.
Маркетолог «слегка подкрутил» промпт — мол, пусть бот активнее про акцию рассказывает. Руководитель продаж захотел специальную скидочную логику для VIP-клиентов, причём чтобы обычные об этом не знали. Айтишник обновил модель на свежую версию, потому что «ну она же новее, значит лучше». И всё это происходило тихо, без согласований, без тестов, без документации.
Через полгода бот стал чёрным ящиком. Все пользовались, никто не понимал, как оно на самом деле работает. А потом один клиент в чате увидел цены для другого клиента — конфиденциальную информацию, которая никогда не должна была утечь. Началась паника, разбирательства. Оказалось, что кто-то месяц назад «на секунду» вырубил проверку прав доступа для тестирования фичи. И благополучно про неё забыл.
Это не про плохих людей. Это про то, что бывает, когда AI-систему внедряют без governance — чёткой структуры управления, ролей, правил и контроля. Когда никто не знает, кто за что отвечает и как всё должно работать.
«К 2026 году организации, не имеющие формализованной структуры AI governance, будут сталкиваться с критическими инцидентами в 3 раза чаще конкурентов с выстроенными процессами управления.»
Слово «governance» у многих вызывает аллергию. Сразу представляются толстенные папки регламентов, согласования по три недели и корпоративная бюрократия, которая душит любую инициативу. Но нет, речь не об этом.
AI Governance — это просто ответ на вопрос: кто отвечает за то, что делает ваш AI, и как вы контролируете, что он работает так, как надо?
Попробуйте представить AI-бота как нового сотрудника. Очень способный парень, работает круглосуточно, не болеет, в отпуск не уходит. Но есть нюансы. Он не чувствует контекст компании так, как это делает опытный коллега, который тут десять лет. Может ошибаться совершенно неожиданным образом — не как люди. Его поведение полностью зависит от того, как его настроили, а настраивают его разные люди с разными целями. Он работает с чувствительными данными клиентов. И если он накосячит — это мгновенно размножится на тысячи взаимодействий.
Для обычного сотрудника у вас есть вся инфраструктура: должностная инструкция, руководитель, регулярные встречи один-на-один, оценка работы, обучение. Для AI нужна похожая система, просто заточенная под особенности технологии.
Правила игры, которые снимают вечные споры: что боту можно, что нельзя, какие данные под запретом, кто решает спорные вопросы
Живые люди с именами и фамилиями, которые отвечают за бота — чтобы не было «ну это же не моя зона»
Понятная механика на каждый день: как вносить изменения, что делать если всё сломалось, как откатываться назад
Ладно, скажете вы, звучит разумно. Но почему именно сейчас? Пару лет назад AI в бизнесе был чем-то экзотическим. Пилотные проекты, эксперименты, «давайте попробуем, посмотрим». В таком режиме governance выглядел бы как излишний перфекционизм. Но времена изменились.
Сейчас в Казахстане картина совсем другая. AI-боты уже не в песочнице — они в бою. Разговаривают с реальными клиентами, принимают заявки, закрывают сделки. За последний год количество компаний, использующих AI, выросло раза в три, и это только разгон.
Ещё недавно на AI смотрели сквозь пальцы. Теперь закон о персональных данных в Казахстане, финрегуляторы со своими требованиями, отраслевые проверки — все хотят знать, как вы контролируете своего бота. Отмазка «ну, это же автоматизация» уже не работает.
Пять диалогов в день? Ошибка — ну ладно, бывает. Пять тысяч? Одна кривая настройка расползается по всей клиентской базе за пару часов. Репутация и деньги улетают быстрее, чем вы успеете сказать «упс».
Помните, когда бота настраивал один энтузиаст из IT? Теперь к нему лезут маркетологи со своими акциями, продажники со скидками, юристы с compliance, поддержка с жалобами. Каждый тянет в свою сторону. Без правил — хаос гарантирован.
GPT-4, GPT-4o, Claude 3.5 — каждый месяц что-то новенькое. Без нормального процесса обновлений вы либо тестируете прямо на клиентах (и потом разгребаете), либо боитесь трогать и застреваете в прошлом веке.
И ещё один момент, о котором не очень громко говорят. AI-решения начали проверять. Внутренний аудит, внешний аудит, регуляторы — все хотят понять, что у вас там происходит. «Покажите, как работает ваш бот. Кто за него отвечает? Какие данные он видит? Как вы следите за изменениями?»
Если ответов нет — у вас проблема. Если есть — вы выглядите как серьёзная, зрелая компания. О том, как готовиться к таким проверкам, есть отдельная статья: Аудит AI-решений: чек-лист для службы безопасности.
Окей, с «зачем» разобрались. Теперь к «кто». Самая частая ошибка, которую вижу: «За бота отвечает IT». Или: «За бота отвечает маркетинг». Или классика жанра: «За бота отвечает подрядчик, который его настраивал».
На самом деле AI-решение — это командный вид спорта. Оно затрагивает IT (инфраструктура, интеграции), бизнес (цели, сценарии), юристов (compliance, данные), безопасность (риски, доступы). Повесить всё на один отдел — либо перегрузить людей, либо создать слепые зоны, в которых никто не разбирается.
Вот модель ролей, которая работает. Не нужно никого нанимать — это просто распределение зон ответственности между теми, кто уже в команде.
| Роль | Кто обычно выполняет | Зона ответственности |
|---|---|---|
| AI Product Owner | Руководитель продукта, коммерческий директор | Бизнес-цели AI-решения, приоритеты развития, согласование крупных изменений, отчётность перед руководством |
| AI Operations Lead | Старший менеджер поддержки, руководитель CRM | Ежедневный мониторинг качества, эскалация проблем, обучение команды работе с AI, сбор обратной связи |
| AI Technical Lead | Ведущий разработчик, системный архитектор | Техническая архитектура, интеграции, производительность, безопасность на уровне кода и инфраструктуры |
| AI Risk & Compliance | Юрист, CISO, специалист по ИБ | Оценка рисков, соответствие регуляторным требованиям, политики работы с данными, реагирование на инциденты |
| Content & Prompt Owner | Копирайтер, маркетолог, product-менеджер | Содержание промптов, база знаний, tone of voice, тестирование сценариев диалогов |
Для компаний среднего размера (50-200 сотрудников) все эти роли обычно совмещаются 2-3 людьми. Главное — чтобы ответственность была явно назначена и задокументирована. Не «все понемногу», а конкретные имена напротив конкретных зон.
Отдельно про роль AI Risk & Compliance. Это не человек-параноик, который всё запрещает. Это тот, кто помогает понимать риски и принимать осознанные решения — идём на риск или нет.
Его задача — задавать неудобные вопросы. «А что будет, если бот накосячит и клиент из-за этого потеряет деньги?», «Где лежат логи диалогов и кто может их читать?», «Как мы поймём, что кто-то пытается взломать бота?». Не для того чтобы похоронить проект, а чтобы проект был готов к реальности, а не только к красивой презентации.
Какие угрозы нужно учитывать при проектировании AI-систем, подробно разобрано тут: Threat Modeling для LLM-бота: 12 угроз.
С людьми разобрались. А чем эти люди должны руководствоваться? Тут на сцену выходят политики. И нет, это не талмуды, которые никто не читает. Это короткие, внятные правила, которые отвечают на простые вопросы: «Можно ли мне это делать? Нужно ли с кем-то согласовывать? Как правильно оформить?»
Вот минимальный набор, который должен быть у любой компании, использующей AI для работы с клиентами.
На какие вопросы отвечает:
С какими данными вообще может работать AI? Что ему категорически нельзя видеть? Куда сохраняются все эти диалоги, кто их читает и как долго они живут? Вроде очевидные вещи, но пока не запишешь — каждый понимает по-своему.
Как это выглядит на практике:
«Персональные данные клиентов — ИИН, номера паспортов, платёжные реквизиты — не попадают в промпт модели ни при каких условиях. Вместо них используем обезличенные ID. Логи храним 90 дней, доступ только у трёх человек с подписанным NDA.»
На какие вопросы отвечает:
Как вообще должен разговаривать ваш бот — на «вы» или на «ты», формально или по-дружески? Какие темы для него табу? Что делать, если клиент провоцирует или грубит? В какой момент бот признаёт поражение и зовёт живого человека? Без этого бот либо слишком скучный, либо слишком свободный.
Как это выглядит на практике:
«Бот общается вежливо, но неформально — на "вы", но без канцелярщины. Не обсуждает конкурентов, политику, религию. Если клиент пытается увести разговор в сторону — мягко возвращает к продукту. При агрессии или матах не отвечает тем же, а предлагает связь с менеджером.»
На какие вопросы отвечает:
Кто вообще имеет право менять промпты и настройки? Какие изменения можно делать сразу, а какие нужно согласовывать со всей командой? Как проверять, что ничего не сломалось? И самое важное — как быстро откатиться, если что-то пошло не так? Это самая частая боль в компаниях, где несколько человек лезут в одну систему.
Как это выглядит на практике:
«Мелкие правки в FAQ делает контент-менеджер самостоятельно. Всё остальное — через staging и тест на 10% трафика минимум сутки. Крупные штуки типа смены модели или новой интеграции обсуждаем на еженедельной планёрке, тестируем три дня, выкатываем под присмотром.»
На какие вопросы отвечает:
Когда происходит что-то плохое — как понять, насколько это плохо? Кому звонить первому? Когда бить во все колокола, а когда просто зафиксировать и разобраться спокойно? Кто принимает решение вырубить бота, если совсем всё горит? Без этой политики в моменте паники люди теряются и теряют время.
Как это выглядит на практике:
«Если бот показал чужие данные клиенту — это P1, критический инцидент. Сразу пишем руководителю и безопаснику, выключаем бота за 15 минут. Если бот нагрубил клиенту — это P3, фиксируем, разбираем на неделе. Все инциденты записываем в табличку, раз в месяц смотрим паттерны.»
На какие вопросы отвечает:
За какими цифрами и событиями вы следите каждый день, каждую неделю? Как часто кто-то открывает логи и смотрит, что там происходит на самом деле? Кто вообще может залезть в логи? Как часто вы устраиваете полноценную проверку — не для галочки, а чтобы реально понять, что работает, а что нет?
Как это выглядит на практике:
«Каждую пятницу читаем 50 случайных диалогов — смотрим, как бот справляется, где тупит. Раз в месяц собираем дашборд с метриками и показываем руководству. Раз в квартал зовём внешнего безопасника посмотреть на всё свежим взглядом. Доступ к полным логам только у троих, остальные видят обезличенную статистику.»
Политики — это живые документы. Они меняются по мере того, как вы набираетесь опыта. Первая версия будет кривой — это нормально. Главное начать, а потом шлифовать на практике.
Как выстроить политики работы с персональными данными в AI-системах — разобрано здесь: AI и GDPR/152-ФЗ: практическое руководство по compliance.
Поможем разработать политики, распределить роли и настроить процессы управления AI-решениями. От шаблонов документов до внедрения практик — работаем под ключ.
Заказать консультациюТеперь поговорим про неприятное — про то, что может пойти не так. «Оценка рисков» звучит как что-то из учебника по менеджменту, но на деле это простой вопрос: что может пойти не так и насколько больно будет?
Видел две крайности. Одни забивают на риски: «Да ладно, что может случиться, это же просто чат-бот». Другие параноидально боятся всего и в итоге ничего не запускают. Обе позиции — мимо.
Нормальный подход — спокойно и системно: выявляем риски, оцениваем вероятность и последствия, принимаем решение — идём на риск, снижаем или избегаем.
| Риск | Вероятность | Последствия | Типовые меры снижения |
|---|---|---|---|
| Галлюцинации — бот выдаёт неверную информацию | Высокая | Средние | RAG с проверенной базой знаний, cite sources, fallback на оператора при низкой уверенности |
| Утечка данных через промпт или ответ | Средняя | Высокие | Маскирование PII, output-фильтры, разделение доступа, аудит логов |
| Prompt injection — манипуляция поведением | Средняя | Средние | Input-фильтры, изоляция системного промпта, мониторинг аномалий |
| Репутационный ущерб — бот говорит что-то неуместное | Средняя | Высокие | Контент-фильтры, чёткие guardrails, регулярный QA |
| Недоступность — бот не работает | Низкая | Средние | Fallback на альтернативную модель, кеширование, graceful degradation |
| Несанкционированные изменения | Средняя | Средние | Контроль доступа, версионирование, аудит изменений |
| Регуляторные штрафы | Низкая | Высокие | Compliance-аудит, документация, согласия пользователей |
Обратите внимание на комбинацию «Средняя вероятность + Высокие последствия». Это самая опасная зона — события случаются не каждый день, но когда происходят — бьют сильно. Вот на эти риски и надо направлять основные усилия.
Практический совет: оценивайте риски не один раз при запуске, а регулярно. Например, раз в квартал. Угрозы меняются, появляются новые способы атак, меняется бизнес-контекст. То, что было низким риском полгода назад, сегодня может быть критичным.
Про защиту от prompt injection и других атак на AI-ботов — тут: Prompt Injection: как ломают AI-ботов и как защититься.
Помните историю из начала статьи? Давайте вернёмся к ней. Проблема той компании была не в том, что люди вносили изменения — это нормально. Проблема в том, что никто не следил, что меняется, никто не тестировал и никто ни с кем не согласовывал.
Контроль изменений (Change Management) — это не бюрократия ради галочки. Это ваша страховка от вечного вопроса «а кто это вообще сделал и зачем?» и возможность быстро откатить всё назад, когда что-то идёт не по плану.
Заявка
Описание и обоснованиеОценка
Риски и влияниеСогласование
Approve / RejectТестирование
Staging + A/BДеплой
Постепенный rolloutМониторинг
Метрики + алертыКлючевой момент — классификация изменений по уровню риска. Не всё одинаково важно. Поправить опечатку в приветствии бота — одно дело. Поменять логику скидок или дать боту доступ к новым данным — совсем другое.
| Уровень | Примеры изменений | Процедура | Срок |
|---|---|---|---|
| Низкий | Исправление опечаток, косметические правки, обновление контактных данных | Самостоятельно, уведомление команды | Сразу после изменения |
| Средний | Новые сценарии диалога, изменения в tone of voice, добавление FAQ | Согласование с AI Operations Lead, тестирование в staging | 1-2 рабочих дня |
| Высокий | Изменение бизнес-логики, доступ к новым данным, смена модели, интеграции | CAB, полный цикл тестирования, A/B на ограниченной выборке | 3-5 рабочих дней |
| Критический | Изменения в обработке платежей, персональных данных, compliance-критичные | Согласование с Risk & Compliance, юридический review | 5-10 рабочих дней |
И обязательно — версионирование. Каждое изменение фиксируйте: что поменяли, когда, кто, зачем. Не для слежки за сотрудниками — а чтобы быстро откатиться и понять, что сломалось, если что-то пошло не так.
В идеале промпты и конфигурации должны храниться в Git — тогда вся история изменений ведётся автоматически. Если это нереально — хотя бы changelog в табличке или документе.
Ну хорошо, политики написали, процессы настроили. А откуда вы узнаете, что всё это реально работает, а не просто пылится в документах? Для этого нужен аудит — и это не разовая акция, а регулярная практика.
Цель не в том, чтобы найти виноватых и наказать. А в том, чтобы честно посмотреть: система работает как надо? Рекомендую три уровня проверки с разной частотой.
Проверка пульса, занимает полчаса. Открываете 30-50 случайных диалогов — посмотреть, что бот реально говорит клиентам. Сколько раз переключили на оператора и почему? Основные цифры в норме? Есть жалобы — разбираете сразу, не откладывая.
Тут уже копаете глубже. Собираете нормальный отчёт по метрикам — что с трендами, как по сравнению с прошлым месяцем. Что менялось в боте и кто менял? Доступы у правильных людей? (Вдруг кто-то уволился, а права остались.) Список рисков актуален?
Большая ревизия. Зовёте кого-то со свежим взглядом — внешнего специалиста или коллегу из другого отдела. Пытаетесь сломать бота — что будет, если его обмануть? Политики ещё актуальны или уже устарели? Показываете руководству, как AI реально помогает бизнесу.
Отдельно — аудит инцидентов. После каждого серьёзного инцидента (а что считать серьёзным — это в политике прописано) делается разбор полётов: что случилось, почему, как обнаружили, как отреагировали, что сделать, чтобы не повторилось.
Важно: аудит должен быть безобвинительным (blameless). Цель — улучшить систему, а не найти козла отпущения. Если команда будет бояться признаваться в косяках — вы никогда не узнаете о настоящих проблемах.
Если вы дочитали до сюда и думаете «всё это звучит логично, но блин, с чего начать?» — понимаю. Вот конкретный план. Не надо хвататься за всё сразу. Начните с малого и постепенно наращивайте.
Назначаете ответственного — кто будет рулить всем этим. Инвентаризация: что у вас вообще есть? Какие боты, где работают, с чем связаны? Смотрите на главные риски. Пишете первую политику по данным — пусть кривую, но хоть какую-то. Включаете мониторинг, чтобы видеть картину.
Раскидываете роли — кто за что конкретно отвечает, без «ну, как-нибудь разберёмся». Договариваетесь про изменения и инциденты. Начинаете хранить версии промптов — чтобы можно было откатиться. Запускаете еженедельную проверку: читаете диалоги, смотрите, как бот справляется.
Дописываете остальные политики — контент, мониторинг. Налаживаете регулярные проверки. Учите команду — не просто «вот бумажка», а чтобы люди понимали зачем. Первый большой обзор: что получилось, где провалы. Планируете, куда двигаться дальше.
И ещё несколько мыслей, которые помогут не сойти с ума:
Начинайте с того, что реально болит. Главная проблема — хаос с изменениями? Начните с политики изменений. Переживаете за безопасность? С оценки рисков. Не надо объять необъятное.
Не усложняйте. Политика на одну страницу, которую все прочитают — лучше, чем 50-страничный талмуд, который никто не откроет.
Объясняйте «зачем». Governance работает, когда люди понимают смысл, а не просто выполняют указания сверху. Без понимания — будут обходить правила.
Не бойтесь первой кривой версии. Она будет корявой — это нормально. Запланируйте пересмотр через три месяца и улучшите на основе реального опыта.
Поможем с нуля — от аудита текущего состояния до внедрения полноценного AI Governance. Шаблоны политик, обучение команды, сопровождение.
Получить консультациюПомните компанию из начала статьи? После утечки данных они три месяца приводили всё в порядок. Деньги, нервы, репутация — всё это стоило дорого. И знаете что? Этого можно было избежать.
Хорошая новость: те, кто вкладывается в AI Governance до первого кризиса, а не после — получают бонусы.
Устойчивость. Когда что-то идёт не так (а это неизбежно), у вас есть процессы реагирования. Инцидент — неприятность, но не катастрофа. Разница огромная.
Скорость. Парадокс, но система контроля не тормозит, а ускоряет. Когда правила понятны — люди не боятся экспериментировать. Они знают: если накосячим — есть откат, процедуры, подстраховка.
Доверие. Клиенты, партнёры, регуляторы — все спрашивают, как вы управляете AI. Зрелая система говорит: «Эти ребята знают, что делают».
AI перестаёт быть игрушкой. Он становится критической частью бизнеса. А всё критическое требует управления. Не бюрократии — продуманного подхода.
Начните сегодня. Не надо сразу идеальной системы — сделайте первый шаг. Назначьте ответственного. Напишите первую политику. Проведите первый аудит. Путь в тысячу километров начинается с одного шага. Банально, но правда.
Полный чек-лист проверки AI-решения перед внедрением
Модель угроз для AI-ботов и меры защиты
Как соответствовать требованиям защиты персональных данных
Защита персональных данных в AI-системах