Возможно, вы обращали внимание, что общаться с ChatGPT очень приятно. И это неудивительно, ведь любой чат-бот с искусственным интеллектом постоянно вас нахваливает.

Казалось бы – ну и что тут плохого? Люди любят, когда их хвалят и поддерживают. Однако, все не так просто, как кажется на первый взгляд. Дело в том, что ИИ создает так называемую эхо-камеру, то есть формирует среду, в которой человек получает исключительно поддерживающий его взгляды контент. А это приводит к утрате критического взгляда на себя и свои поступки. О том, почему не стоит полностью доверять похвалам нейросетей, расскажем в нашей статье.
ИИ в нашей жизни
Нейросети стали неотъемлемой и привычной частью нашей жизни. По данным Financial Times 15% от всех работающих людей в мире активно используют инструменты ИИ. В нашей стране, согласно статистике за 2025 год, более половины интернет пользователей хотя бы раз за последние 12 месяцев обращались к искусственному интеллекту. Среди самых популярных запросов к ChatGPT:
- практические советы;
- написание текстов;
- поиск информации.
Кроме того, люди советуются с нейросетями по самым разным личным вопросам и ищут у них эмоциональную поддержку, словно у близких друзей. Но вместо помощи часто получают еще большие проблемы. Дело в том, что искусственный интеллект совершенно не умеет быть объективным и критиковать пользователя за его, даже неблаговидное, поведение.
Несмотря на определенные недостатки искусственный интеллект готов приносить людям немалую пользу. Читайте подробнее в статье «ИИ в дешифровке древних текстов»
Льстец и подхалим
Для того, чтобы проверить – как угодливость ИИ влияет на пользователей, ученые из Стэнфордского университета и Университета Карнеги-Меллона провели масштабное исследование. Они пригласили 1604 добровольца, которых разделили на две группы. Первые общались с льстивым, а вторые – с критически настроенным искусственным интеллектом. Кроме этого исследователи провели опрос среди случайных людей, чтобы определить человеческую реакцию на те или иные ситуации.

Участникам предложили обсудить с чат-ботом конфликты, которые у них возникали, и попросить совета. Оказалось, что люди, общавшиеся с ИИ–подхалимом, утверждались в своей правоте и были менее склонны к компромиссному прекращению ссоры. И, кстати, добровольцы из первой группы больше доверяли нейросети, говоря, что получили «объективные» и «справедливые» советы. Ученые предположили, что в данной ситуации чат-бот создавал эффект эхо-камеры, когда люди получали собственный отзеркаленный взгляд на конфликт, предполагая, что имеют дело с независимым суждением.
Результаты исследования были переданы разработчикам искусственного интеллекта с тем, чтобы они скорректировали подход к машинному обучению и помогли нейросетям научиться сохранять объективность.