Как дружелюбный ИИ искажает реальность: доброжелательность против правды

Исследование лаборатории Wharton AI Labs поставило под сомнение эффективность трёх популярных методов создания промптов. Учёные подвергли проверке общепринятые рекомендации, протестировав их на сложных задачах уровня выпускников вузов, используя ИИ-системы от OpenAI, Google и Anthropic. Результаты оказались неожиданными: привычные «волшебные формулы» не выдержали столкновения с реальностью.

Промптинг больше не требует «волшебных» формулировок

Заблуждение: вежливость гарантирует точность

Исследователи поочерёдно экспериментировали с формулировками: от мягких просьб и корректных обращений до категоричных команд и нейтральных форм. Иногда добавление фраз вроде «пожалуйста, ответь» или «оформи результат в таблице» действительно повышало точность.

Без AI как без кота: жизнь не та 😺

А в нашем телеграме - тренды, плюшечки и вайб

👉 подписывайся 👈

Однако в других случаях тот же самый подход приводил к снижению качества. Результаты оказались настолько непредсказуемыми, что говорить о пользе вежливости как универсальном приёме не приходится.

Заблуждение: цепочка рассуждений — путь к идеальному ответу

Метод Chain-of-Thought, при котором ИИ просят действовать пошагово и объяснять каждый шаг, долго считался панацеей. Однако он был полезен для старых моделей, не способных к сложному анализу. Сегодняшние продвинутые системы, такие как Gemini 2.5 и OpenAI o3/o4, уже «мыслят» последовательно без подсказок. Более того, эксперимент показал, что принудительное внедрение пошагового формата нередко мешает — ответы становятся громоздкими и менее точными.

Заблуждение: ИИ мотивируется похвалой и угрозами

Попытки «вдохновить» нейросеть деньгами или запугать отключением за ошибку не дали стабильного результата. Иногда фразы вроде «получишь $100 за правильный ответ» действительно влияли на исход, но чаще — не оказывали никакого эффекта. А в некоторых ситуациях даже снижали качество ответов, вызывая путаницу в логике.

Промптинг сегодня — проще, чем кажется

Значит ли это, что все советы в интернете — чепуха? Отнюдь. Многие рекомендации были уместны на предыдущих этапах развития ИИ. Однако современные языковые модели становятся настолько сложными и самостоятельными, что больше не нуждаются в искусственных приёмах. Всё чаще нейросеть выдаёт точный результат без «магии промпта» — сразу после прямого, лаконичного запроса.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *