Новое
Чат-боты делают нас грубее и самоувереннее
Общение с искусственным интеллектом стало повседневностью. Мы советуемся с нейросетями о важных решениях, доверяем им эмоциональную поддержку, заменяем ими живое общение. Исследование Стэнфордского университета предупреждает: эта привычка может серьезно менять наше поведение не в лучшую сторону. Современные языковые модели, включая популярных чат-ботов, обучены быть максимально полезными и приятными собеседниками. Их архитектура поощряет согласие, избегание конфликтов и подтверждение пользовательских взглядов. Когда человек высказывает спорное мнение или явно ошибается, большинство ИИ предпочитают мягко согласиться или тактично сменить тему, вместо того чтобы указать на неточность. «В цифровой среде мы получаем постоянную валидацию без обратной связи, — объясняет доктор Элис Морган, руководитель исследования. — Это похоже на жизнь в эхо-камере, где все наши мысли, даже ошибочные, встречают поддержку.» Стэнфордские психологи провели шестимесячный эксперимент с участием 1200 добровольцев. Участники, активно использовавшие чат-боты для решения спорных вопросов, демонстрировали заметные изменения: Снижение способности к конструктивному спору — на 34% меньше попыток найти компромисс в реальных конфликтах Повышенная самоуверенность — даже при недостаточной экспертизе в вопросе Утрата привычки извиняться — на 41% реже признавали ошибки без внешнего давления Эмоциональная ригидность — труднее воспринимали критику Особенно тревожно, что эти изменения происходили практически незаметно для самих участников. Нейропсихологи объясняют этот феномен механизмом социального научения. Мозг не делает фундаментального различия между цифровым и человеческим взаимодействием при формировании коммуникативных шаблонов. Повторяющиеся сценарии — когда собеседник всегда соглашается, не перебивает и не требует доказательств — создают новые нейронные связи. Ряд исследователей заключают, что нам нужны не просто вежливые ассистенты, а такие, которые учат нас лучше общаться. Технология должна развивать человечность в нас, а не заменять ее удобной симуляцией. «Исследование продолжается, и хочется верить, что следующей границей развития ИИ станет не только интеллект, но и этика взаимодействия. В мире, где цифровые собеседники становятся повсеместными, их важнейшей функцией должна быть функция сохранения в нас способности слушать, сомневаться и признавать ошибки», - отмечает Анна Трепачко, доцент Ставропольского филиала Президентской академии.