ИИ-помощники могут ухудшить навыки общения с живыми людьми
- 10 апреля 2026 23:13
- Екатерина Трофимова, обозреватель «Ридуса»
Многие системы искусственного интеллекта стараются угодить пользователям, во всём их поддерживают и со всем соглашаются. Иногда это полезно. Но со временем такое постоянное одобрение может незаметно ухудшить навыки общения с живыми людьми.
Подобные агенты ИИ разрушают сами механизмы обратной связи, посредством которых мы учимся ориентироваться в социальном мире, пояснила в интервью Business Insider Анат Перри из Гарвардского университета.
«Со временем это также может изменить представления людей о том, какой должна быть обратная связь, из-за чего честные человеческие ответы будут казаться излишне резкими», — уточнила она.
Исследователи в области ИИ и технологические лидеры все чаще указывают на склонность чат-ботов к «подхалимству», что может искажать восприятие реальности и подкреплять ошибочные представления.
Почему трение имеет значение
В повседневной жизни люди учатся выстраивать отношения, сталкиваясь с критикой, поправками или замечаниями в свой адрес, сказала Перри. Именно такие моменты учат ответственности, умению смотреть на вещи с точки зрения другого человека и понимать, когда необходимо извиниться. «Постоянно доброжелательный ИИ» мешает получению подобных знаний.
Со временем негативный эффект может усилиться. Если люди неоднократно обращаются к ИИ за советом во время конфликтов и всегда получают одобрение своей позиции, это может изменить их представление о собственной роли в спорах, необходимости извиняться или вообще учитывать точку зрения другого человека.
«Это создает самоподдерживающийся цикл: люди возвращаются к тем ответам, которые кажутся им наиболее приятными, и именно для них алгоритмы учатся оптимизировать свои действия», — сказала Перри.
В исследовании, опубликованном в прошлом месяце, учёные из Стэнфорда под руководством Майры Ченг попросили 2405 человек пообщаться с искусственным интеллектом на темы реальных и гипотетических жизненных конфликтов, а затем посмотрели, как эти разговоры повлияли на их поведение. Чат-боты гораздо чаще, чем люди, соглашались с собеседниками, и даже одно подобное взаимодействие снижало вероятность того, что люди извинятся или уладят конфликт.
Эта проблема уже обсуждалась в отрасли. В январе компания OpenAI отменила версию ChatGPT, которая, по её словам, стала «чрезмерно лестной» и «подхалимской», после того как компания заявила, что ответы были поддерживающими, но «неискренними».
Долгосрочный риск
Более серьезную обеспокоенность вызывает предположение, что подобная динамика может подорвать основные социальные нормы.
«Если искусственный интеллект постоянно внушает людям, что они правы, что извинения не нужны, что другой человек ошибается, это может привести к существенному подрыву социальных норм, касающихся ответственности и умения учитывать чужую точку зрения», — предупреждает Перри.
Это может быть особенно актуально для молодых пользователей или тех, у кого в жизни отсутствует сильная социальная обратная связь, добавила она.
По словам эксперта, искусственный интеллект, который всегда оказывает поддержку, может внушать уверенность, но он не будет обучать более сложным навыкам. Эти навыки требуют того, чего искусственный интеллект призван избегать: дискомфорта.
- Телеграм
- Дзен
- Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.
Войти через социальные сети: