Четверг, конференц-зал контакт-центра в Алматы. Три супервайзера сидят за столом, каждый с наушниками и открытым чек-листом. Перед ними — один и тот же диалог оператора с клиентом. Пять минут разговора, который закончился тем, что клиент сказал «спасибо, подумаю» и повесил трубку.
Айгуль ставит 78 баллов из 100. Марат — 62. Жанна — 85. Разброс в 23 балла. На один и тот же разговор. От одних и тех же супервайзеров, которые вроде бы работают по одному чек-листу.
«Он же не выявил потребность!» — возмущается Марат. «Он выявил, просто по-другому, через уточняющие вопросы», — парирует Жанна. «А я вообще не поняла, зачем он спрашивал про бюджет в середине разговора», — добавляет Айгуль.
Узнаёте? Если в вашем контакт-центре качество оценивает больше одного человека — вы с этим точно сталкивались. Разные супервайзеры, разные глаза, разные оценки. А оператор в итоге не понимает правил игры: вчера за это похвалили, сегодня — влетело.
Сегодня разберём, как навести порядок. Без абстрактных теорий — с конкретными шагами, которые работают в реальных контакт-центрах.
«Калибровка — это не про то, чтобы все думали одинаково. Это про то, чтобы все понимали критерии одинаково. Разница огромная»
Казалось бы, ну что такого — разные люди по-разному смотрят на вещи. Все субъективны. Но последствия этой субъективности вполне конкретные и измеримые.
Оператор не понимает правил игры. Один супервайзер хвалит за инициативу, другой — ругает за отступление от скрипта. Мотивация падает, текучка растёт.
Если оценки субъективны, то и премии субъективны. Кто-то получает бонус не за качество работы, а за то, что ему повезло с проверяющим.
Средний балл по отделу — 75. Но это средняя температура по больнице. Реальный уровень качества неизвестен, потому что данные «шумные».
Если нет единого стандарта — нет единого уровня сервиса. Один клиент получает отличное обслуживание, другой — «на отвяжись».
Операторы постоянно оспаривают оценки, потому что «у Марата я бы получил больше». Время уходит на споры, а не на развитие.
Как тренировать, если нет единого понимания «хорошо» и «плохо»? Тренер говорит одно, супервайзер оценивает другое.
Без регулярной калибровки межоценочная надёжность (Inter-Rater Reliability) в контакт-центрах обычно около 60-70%. Это значит, что в трети случаев оценки случайны. Треть вашей системы качества — рулетка.
С регулярными калибровками этот показатель можно довести до 90%+. Вот об этом и поговорим.
Калибровка — регулярные встречи, где все, кто оценивает качество, вместе слушают одни и те же диалоги и сверяют оценки. Цель — не найти «правильного» супервайзера, а договориться, как понимать критерии.
Представьте, что вы настраиваете музыкальные инструменты перед концертом. Каждый инструмент может звучать по-своему, но если не откалибровать их под один камертон — оркестр будет фальшивить. В контакт-центре «камертон» — это ваш чек-лист и единое понимание того, что означает каждый пункт.
Ведущий отбирает 3-5 диалогов разной сложности: отличный, средний, проблемный, пограничный
Каждый супервайзер слушает и оценивает молча, без обсуждения. Фиксирует баллы по чек-листу
Все показывают оценки одновременно. Обсуждают расхождения: почему один поставил 80, а другой 60?
Записывают, как трактовать спорные ситуации. Обновляют чек-лист или добавляют примеры
Важно: калибровка — это не экзамен для супервайзеров. Это совместная работа над стандартами. Если кто-то сильно отклоняется — это повод разобраться, не наказать. Возможно, он увидел что-то, что другие пропустили. Или наоборот — есть пробел в понимании критериев.
Плохой чек-лист — главный источник разброса оценок. Видел чек-листы, где написано «Вежливость — 10 баллов». А что такое вежливость? Улыбка в голосе? Отсутствие хамства? Извинения при проблеме? Три человека понимают это по-разному.
Хороший чек-лист отвечает на вопрос «что конкретно должен сделать оператор» — а не «каким он должен быть».
Слишком размыто. Каждый понимает по-своему.
Конкретные действия. Легко проверить: было или нет.
Структура зависит от типа звонков, но есть универсальные блоки, которые работают в большинстве контакт-центров.
| Блок | Что проверяем | Вес | Тип оценки |
|---|---|---|---|
| Открытие разговора | Приветствие, представление, уточнение запроса, создание контакта | 15% | Да/Нет |
| Выявление потребности | Открытые вопросы, активное слушание, резюмирование | 25% | Шкала 0-3 |
| Решение вопроса | Полнота информации, точность, понятность объяснений | 25% | Шкала 0-3 |
| Работа с возражениями | Выслушал, уточнил, аргументировал, не спорил | 15% | Шкала 0-3 |
| Закрытие разговора | Следующий шаг, резюме, прощание, благодарность | 10% | Да/Нет |
| Критические ошибки | Грубость, обман, нарушение регламента, отказ помочь | Обнуление | Триггер |
Обратите внимание на последний блок — критические ошибки. Это «стоп-факторы», при наличии которых диалог получает минимальную оценку независимо от того, как хорошо оператор справился с остальным. Если оператор нагрубил клиенту — неважно, что он идеально выявил потребность.
Подробнее о метриках контакт-центра и как выстроить систему контроля качества — в нашем руководстве по метрикам качества чат-ботов и операторов.
Даже идеальный чек-лист не закроет все случаи. Всегда найдутся диалоги, которые не влезают в стандартные рамки. Они-то и вызывают споры. И их надо разбирать на калибровках.
Вот типичные пограничные ситуации, которые я встречаю в казахстанских контакт-центрах.
Ситуация: Клиент эмоционален, постоянно перебивает, не даёт задать уточняющие вопросы. Оператор пытается вставить слово, но не успевает.
Спор: Снижать ли баллы за «не выявил потребность», если оператор физически не мог это сделать?
Решение: Оцениваем попытки. Если оператор делал паузы, пытался вставить вопросы, проявлял терпение — баллы не снижаем. Если молча слушал и не пытался направить разговор — снижаем частично. Фиксируем в чек-листе: «При агрессивном клиенте оценивается не результат, а попытки и техника управления диалогом».
Ситуация: Клиент звонит с простым вопросом: «Во сколько вы работаете?». Оператор отвечает за 30 секунд. Разговор закончен.
Спор: Как оценивать? Половина чек-листа не применима — не было потребности, которую нужно выявлять, не было возражений.
Решение: Создаём отдельный «мини-чек-лист» для простых запросов. Оцениваем только применимые пункты: приветствие, точность ответа, предложение дополнительной помощи, прощание. Или помечаем как «не подлежит оценке» с комментарием.
Ситуация: По скрипту нужно спросить «Как вы о нас узнали?» в начале разговора. Оператор не спросил. Но клиент остался доволен, записался на услугу, сам рассказал, что пришёл по рекомендации.
Спор: Снижать за невыполнение скрипта или нет, если результат достигнут?
Решение: Зависит от политики компании. Рекомендую: различать «обязательные» пункты скрипта (критичные для бизнеса или compliance) и «желательные». За обязательные — снижаем всегда. За желательные — снижаем частично или не снижаем, если результат достигнут. Но это должно быть заранее прописано.
Ситуация: Клиент говорит на казахском, оператор отвечает на русском. Или наоборот. Или разговор идёт на смеси языков с переключениями.
Спор: Снижать ли за то, что оператор не перешёл на язык клиента? Как оценивать грамотность при смешении языков?
Решение: Фиксируем политику: если оператор владеет языком клиента — должен перейти (иначе снижаем). Если не владеет — не снижаем, но фиксируем для маршрутизации. Грамотность оцениваем в рамках используемого языка. Смешение без потери смысла — не ошибка в контексте Казахстана.
Ситуация: Связь прерывалась, были помехи, эхо. Оператор переспрашивал, клиент раздражался.
Спор: Снижать ли баллы оператору за то, что он не контролирует?
Решение: Не снижаем за технические проблемы. Но оцениваем, как оператор с ними справился: извинился ли, предложил ли перезвонить, сохранил ли терпение. Фиксируем технические проблемы отдельно для IT-команды.
Все эти кейсы должны быть задокументированы. После каждой калибровки, где обсуждался пограничный случай, добавляйте его в базу знаний QA-команды. Через год у вас будет библиотека примеров на все случаи жизни.
Кстати, о базах знаний — как организовать базу знаний службы поддержки, чтобы и операторы, и супервайзеры могли быстро находить нужную информацию.
Теория — отлично, но перейдём к делу. Вот как организовать калибровку, чтобы она реально работала, а не превращалась в очередной бесполезный митинг.
Напомните правила: оцениваем молча, обсуждаем после. Никакой критики коллег — только обсуждение критериев.
Зависит от размера команды и зрелости процессов.
2 раза в неделю
Пока не выработаете общее понимание критериев. Обычно 4-6 недель.
1 раз в неделю
Поддерживающий режим. Разбор новых кейсов, проверка «дрейфа» оценок.
2 раза в месяц
Профилактика. Плюс внеплановые при новых продуктах или изменении скриптов.
Калибровка — это не просто «поговорили и разошлись». Нужно понимать, работает она или нет. Вот ключевые метрики.
Насколько совпадают оценки разных супервайзеров. Считается как процент совпадений или коэффициент корреляции.
Цель: 85%+ совпадений в пределах ±5 баллов
Средняя разница между самой высокой и самой низкой оценкой на сессии.
Цель: не более 10-12 баллов на 100-балльной шкале
Как часто операторы оспаривают оценки. Высокий показатель — сигнал о несогласованности критериев.
Цель: менее 5% оценок оспаривается
Изменение средней оценки конкретного супервайзера со временем. Если один начал оценивать всё строже/мягче — пора калибровать.
Цель: отклонение не более 5% от среднего по команде
Отслеживайте эти метрики ежемесячно. Если видите ухудшение — увеличьте частоту калибровок. Если всё стабильно — можно немного расслабиться (но не забывать совсем).
Для автоматизации контроля качества и отслеживания метрик полезно использовать AI-аналитику звонков, которая помогает выявлять паттерны и аномалии в оценках.
Искусственный интеллект не заменит калибровочные сессии, но может существенно их улучшить. Вот как.
AI оценивает диалог перед супервайзерами. Его оценка показывается после того, как все дали свои. Это даёт:
Вместо случайной выборки AI находит «интересные» диалоги для калибровки:
Но есть важный нюанс: AI должен калиброваться вместе с людьми. Если вы обновили чек-лист после калибровки — нужно обновить и модель. Иначе AI будет оценивать по старым стандартам.
Подробнее о том, как AI помогает в контроле качества — в статье про QA-аналитику разговоров с помощью AI.
Поможем настроить процесс QA в контакт-центре: разработаем чек-листы, внедрим AI-аналитику, обучим супервайзеров проводить калибровки. Работаем с компаниями в Казахстане.
Обсудить проектНапоследок — чек-лист того, что делает калибровки эффективными. Основано на опыте работы с десятками контакт-центров.
Анонимность убирает предвзятость. «Это же Алия, она всегда хорошо работает» — плохой аргумент.
Если обсуждать во время прослушивания, мнение лидера повлияет на остальных.
«На счёт три» — все поднимают карточки с баллами. Или открывают в чате. Чтобы никто не подстраивался.
Не «Марат, ты неправ», а «По какому критерию мы оценили это по-разному?»
Каждое решение — в протокол. Через полгода никто не вспомнит, о чём договорились устно.
Новички задают «глупые» вопросы, которые выявляют неочевидные проблемы.
Не на каждую сессию, но периодически. Они видят реальность изнутри и могут объяснить контекст.
Соберите библиотеку примеров: «отлично», «хорошо», «удовлетворительно», «плохо». Показывайте на обучении.
Новый продукт, новый скрипт, новый тип клиента — повод для внеплановой калибровки.
Лучше короткие сессии каждую неделю, чем марафоны раз в квартал. Привычка важнее интенсивности.
Если у вас в контакт-центре больше одного человека оценивает качество — вам нужна калибровка. Без неё ваша система контроля качества — это иллюзия контроля. Оценки случайны, операторы демотивированы, аналитика бесполезна.
С регулярными калибровками вы получаете:
Начните с простого: соберите супервайзеров на час, послушайте три диалога вместе, сравните оценки. Увидите разброс — значит, есть над чем работать. Не увидите — отлично, но проверяйте регулярно.
Если нужна помощь с настройкой процесса контроля качества, разработкой чек-листов или внедрением AI-аналитики — пишите нам. Работаем с контакт-центрами по всему Казахстану.