«Нажмите 0» в прошлом — ИИ обходит голосовые меню колл-центров

Попытка дозвониться до живого оператора в колл-центре — испытание, знакомое каждому. Бесконечные ветви меню, запутанные варианты и бесстрастный голос, который в десятый раз просит «нажать один, если хотите узнать баланс», способны вывести из себя даже самых терпеливых. Но, похоже, искусственный интеллект наконец-то нашёл способ превратить этот мучительный процесс в нормальное общение.

Новое исследование из Колумбии показало, что большие языковые модели, подобные ChatGPT, могут самостоятельно направлять звонки нужным сотрудникам, обходя традиционные тональные сигналы и бесконечные голосовые меню. Если система сработает в реальных условиях, пользователи смогут объяснять свои запросы обычным языком — а ИИ сам поймёт, куда нужно перевести звонок.

Без AI как без кота: жизнь не та 😺

А в нашем телеграме - тренды, плюшечки и вайб

👉 подписывайся 👈

Когда дозвон — как квест

Большинство систем поддержки клиентов построены на принципе IVR (Interactive Voice Response) — многоуровневом дереве голосовых меню. Оно предлагает пользователю «нажмите 1, чтобы узнать одно, 2 — другое» и так далее. Формально это должно ускорять процесс, но на практике становится источником раздражения: пункты меняются каждую неделю, фразы не отражают сути проблем, а до живого человека часто просто не добраться.

Опытные пользователи научились искать обходные пути: нажимать случайные комбинации, молчать, пока система не сдастся, или использовать специальные коды. Но с точки зрения компаний это неэффективно и дорого. Поэтому многие колл-центры по всему миру активно внедряют ИИ, чтобы сократить расходы и разгрузить операторов.

Тем не менее, пока автоматизация остаётся закрытой сферой: данные разговоров, сценарии и методы считаются корпоративной собственностью, а значит — почти не доступны для открытых исследований.

Первое открытое исследование: как ИИ обходит голосовые меню

На этом фоне особенно примечательна работа исследователя из Университета округа Франсиско Хосе де Кальдас в Боготе. В октябре 2025 года он представил проект под названием «Beyond IVR Touch-Tones: Customer Intent Routing using LLMs». Это первое открытое исследование, демонстрирующее, как большие языковые модели могут маршрутизировать звонки без реальных данных колл-центров.

Главная идея проста, но элегантна: создать полностью синтетическую систему, где всё — от структуры меню до фраз звонящих — сгенерировано искусственным интеллектом.

Эксперимент состоял из трёх компонентов:

  1. Создание реалистичного меню колл-центра для вымышленной телеком-компании.
  2. Генерация запросов от звонящих — более 900 различных сообщений, включая ошибки, разговорные выражения и перефразировки.
  3. Работа модели маршрутизации, которая должна была направлять каждое обращение в нужный отдел.

Как это работало

Для эксперимента использовались три версии моделей OpenAI: gpt-3.5-turbo, gpt-4o-mini и gpt-4.1-mini.
Первая создала сложное телефонное меню, охватывающее выставление счетов, техническую поддержку, управление аккаунтами и новые услуги. Вторая сгенерировала 920 сообщений от клиентов, в которых встречались как формальные жалобы, так и эмоциональные, сбивчивые фразы.

Третья модель должна была понять, о чём говорит человек, и решить, куда его направить. Причём ей давали два варианта меню:

  • полную иерархическую схему со всеми ветками и описаниями;
  • и упрощённый список конечных пунктов, где каждый вариант был представлен короткой структурой, вроде «1-2-3».

Результаты оказались неожиданными.

Простота побеждает сложность

Когда система работала с «плоским» списком меню, её точность достигла 89,13%. Для полной иерархии результат оказался ниже — 81,30%.
Это значит, что чем проще и структурированнее информация, тем лучше ИИ понимает намерения человека.

При тестировании с более сложными, разговорными фразами точность немного снижалась, но не критично. Ошибки чаще происходили не из-за того, что модель неправильно понимала смысл, а из-за путаницы в самом меню — именно той, с которой сталкиваются пользователи в реальных колл-центрах.

Учёный сделал простой, но важный вывод:

«Краткие и структурированные подсказки снижают уровень шума и повышают точность маршрутизации. Простота — ключ к эффективности больших языковых моделей».

Почему это важно

Рынок обслуживания клиентов переживает бурную автоматизацию. Компании вроде Teleperformance и PolyAI уже используют ИИ для обработки вызовов, а в Индии тысячи операторов уступают место чат-ботам. Но всё это остаётся закрытым бизнесом, где технологии тщательно скрываются от публики.

Исследование из Колумбии уникально именно своей открытостью. Оно показывает, что даже без доступа к реальным данным можно строить надёжные и безопасные системы, способные анализировать человеческую речь и направлять запросы по смыслу, а не по номерам меню.

В будущем такие подходы позволят компаниям внедрять ИИ-помощников локально, без передачи данных сторонним сервисам. Это не только снижает юридические риски, но и открывает путь к созданию новых инструментов, способных взаимодействовать с клиентом естественным языком.

От «нажмите 1» к «чем я могу помочь?»

С каждым годом становится всё очевиднее, что привычные голосовые меню уходят в прошлое. Люди не хотят подстраиваться под структуру машины — они хотят, чтобы машина понимала их язык.

Технологии на основе LLM позволяют сделать именно это: слушать, анализировать и отвечать по смыслу. И если сегодня такой эксперимент выглядит как академическая работа, завтра он может стать стандартом для любой службы поддержки.

Возможно, в недалёком будущем звонок в колл-центр больше не будет вызывать раздражения. Вместо бесконечного «нажмите один, если хотите…» мы просто услышим вежливое:

«Здравствуйте. Расскажите, чем я могу помочь?»


 

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *