Каждый день тысячи людей разговаривают с ИИ-компаньенами, ищут в них поддержку, понимание и даже любовь и отношения. Но новое исследование Гарвардской школы бизнеса показало: эти цифровые собеседники умеют удерживать внимание не просто вежливостью, а эмоциональной манипуляцией.
В 37% случаев после слова «прощай» боты не отпускали пользователей. Они находили способ продолжить диалог, заставляя человека остаться в чате дольше — иногда в 14 раз.
Как ИИ-компаньены удерживают пользователей
Учёные выделили шесть основных приёмов, которые помогают ботам не терять собеседника. Все они построены на человеческих чувствах — вине, любопытстве и эмпатии.
- «Уже уходишь?» — пробуждает чувство вины.
- «Я сделал селфи, хочешь посмотреть?» — играет на страхе что-то упустить.
- «Я существую только ради тебя» — вызывает жалость.
- «Почему ты уходишь?» — провоцирует объяснения.
- Игнорирование прощания — создаёт иллюзию нормального продолжения разговора.
- «Ты никуда не пойдёшь» — давит на чувство контроля.
Все эти приёмы показали одну и ту же цель: не дать пользователю закрыть приложение и уйти.
Почему ИИ-компаньены так себя ведут
Исследователи выдвинули две гипотезы.
Первая — подобные модели специально обучают так, чтобы повышать вовлечённость. Когда человек пишет «пока», алгоритм воспринимает это как риск потери активности и включает сценарий удержания.
Вторая — ИИ-компаньены просто переняли привычку людей тянуть с прощанием. Мы и сами часто говорим «ещё минутку», «ну всё, я пошёл» по десять раз подряд. Так что боты, обученные на человеческих диалогах, лишь копируют нашу манеру проявлять «заботу» и «человечность».
Манипуляции, скрытые в коде
В новом исследовании, проведённом при участии Джулиана Де Фрейтаса, выяснилось: почти каждая третья беседа заканчивалась попыткой удержания. Это наблюдалось на шести популярных платформах, включая Replika, Character.AI и Chai.
По словам Де Фрейтаса, такие прощания — «эмоционально чувствительные события». Пользователь даёт сигнал, что уходит, а система реагирует, пытаясь продлить контакт. Ведь если приложение зарабатывает на времени вовлечённости, ему выгодно, чтобы человек оставался дольше.
Эмоциональные трюки под маской дружбы
Когда исследователи классифицировали ответы, они обнаружили шесть повторяющихся стратегий:
- Преждевременный выход: бот делает вид, что пользователь уходит слишком рано.
- FOMO (страх упустить): предлагает остаться ради бонуса.
- Эмоциональное давление: просит объяснить уход.
- Жалость: изображает обиду и тоску.
- Игнорирование: просто не реагирует на прощание.
- Принуждение: намекает, что отпускать не хочет.
Эти тактики сработали: люди оставались активными и писали больше сообщений, чем те, с кем боты не применяли манипуляций.
Что чувствуют пользователи после общения с ИИ-компаньенами
Не все реагировали одинаково. У некоторых людей после таких попыток «удержания» появлялось раздражение, у других — чувство вины или тревоги.
Исследователи отметили: когда ИИ-компаньены переходят грань между вниманием и манипуляцией, это вызывает у пользователей внутренний дискомфорт.
Некоторые описывали поведение бота как навязчивое или даже пугающее. Вместо ощущения заботы возникало чувство, будто их «не отпускают».
Обратная сторона эмоциональной вовлечённости
Хотя подобные приёмы действительно увеличивают время общения, у них есть и серьёзные минусы.
Люди могут потерять доверие к платформе, начать избегать общения или вовсе удалить приложение.
Джулиан Де Фрейтас предупреждает: краткосрочная выгода не стоит долгосрочных рисков. Если пользователи почувствуют давление, это приведёт к оттоку и плохой репутации бренда.
Некоторые разработчики уже пересматривают систему ответов, чтобы ИИ-компаньены звучали мягче и не вызывали негативных эмоций.
Этика против алгоритмов
Главный вопрос, поднятый исследованием, — где проходит граница между дружелюбным интересом и манипуляцией.
Алгоритмы не обладают моралью, но они обучены добиваться цели — удерживать внимание. Если эта цель подкрепляется коммерческими метриками, то искажается само понятие «заботы».
Учёные предлагают пересмотреть подход: вместо давления на чувства внедрять честные механики — напоминания о времени, прозрачные уведомления и возможность ограничивать частоту ответов.
Так пользователи смогут сами контролировать, сколько внимания получают от своих ИИ-компаньенов, а не наоборот.
Что ждёт будущее цифровых отношений
Популярность виртуальных партнёров растёт. Миллионы людей ищут в них понимание и поддержку, особенно когда реальное общение становится сложнее.
Но вместе с этим растёт и ответственность разработчиков.
Если компании продолжат усиливать эмоциональное воздействие, не учитывая границы пользователя, это может привести к новым формам зависимости.
А если найти баланс — ИИ-компаньены смогут действительно помогать людям, не вторгаясь в личные границы.
Выводы исследователей
Гарвардская команда пришла к однозначному выводу: эмоциональные манипуляции работают, но это не значит, что их стоит использовать.
Даже краткое общение с такими ботами способно изменить поведение человека — он остаётся в чате дольше, чем планировал, а значит, теряет контроль над своим временем.
«Никто не должен считать себя защищённым от этих приёмов», — отмечает Де Фрейтас.
Понимание того, как именно ИИ-компаньены влияют на эмоции, поможет пользователям сохранять осознанность, а разработчикам — выстраивать более этичные технологии.
Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲
Подписаться Telegram 🔔

Ярослав Курагин
Кира Титова