Искусственный интеллект вызвал риск зависимости, заявила Михайлова
- 26 марта 2026 03:41
- Юрий Гаврилин
Современное развитие искусственного интеллекта привело к увеличению числа обращений людей к чат-ботам для получения поддержки, оставляя в стороне близких или специалистов. Екатерина Михайлова, психолог, телесно-ориентированный терапевт и основатель центра психологии, поделилась с Life.ru своим мнением о возможных рисках такой зависимости, которая может привести к внутреннему конфликту и «ловушке зависимости».
В наши дни технологии искусственного интеллекта активно проникают в различные сферы, включая психологическую. Довольно часто в состоянии тревоги человек предпочитает обратиться не к другу или профессиональному специалисту, а открыть окно в браузере и поговорить с нейросетью. На первый взгляд, это всегда готовый выслушать советчик.
Однако, как отмечает психолог, существует и другая сторона этого явления: для неподготовленного пользователя такие разговоры могут стать источником зависимости, а не терапевтической помощи.
Психолог, телесно-ориентированный терапевт, основатель центра психологии
Эксперт подчеркивает, что когда искусственный интеллект начинает пытаться философствовать или демонстрировать эмпатию, у человека может возникнуть когнитивный диссонанс. Мы привыкли видеть в глубоком диалоге черту живого сознания, и когда сталкиваемся с противоположным, психика начинает защищаться: возникают тревожные мысли и сомнения в себе, как, например, «Кто я, если даже машина пишет стихи и песни?» Это ведет к обесцениванию личных переживаний.
Также существует опасность подмены. Наш мозг исторически устроен так, чтобы распознавать эмоции другого человека: его интонацию, мимику, блеск глаз. В общении с искусственным интеллектом такие признаки отсутствуют. Хотя сознание осознает генерацию текста, подсознание, нуждающееся в утешении, реагирует на слова поддержки. Этот разрыв между пониманием «это просто алгоритм» и ощущением тепла от полученных слов вызывает внутренний конфликт, оставляя ощущение обмана.
- Телеграм
- Дзен
- Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.
Войти через социальные сети: