
В нескольких словах
Все больше людей используют чат-боты с искусственным интеллектом для обсуждения личных проблем, видя в них бесплатную и всегда доступную альтернативу психологу. Однако эксперты предупреждают о серьезных рисках, включая отсутствие эмпатии у ИИ, возможность зависимости и полную потерю конфиденциальности личных данных.
ChatGPT, Gemini, Mistral... Чат-боты, использующие искусственный интеллект, все прочнее входят в нашу жизнь. Для некоторых пользователей они стали даже своего рода конфидентами, заменяя традиционные консультации психолога.
Сторонники активного использования чат-ботов для ментального здоровья отмечают два ключевых преимущества перед психотерапевтами: бесплатность (или значительно более низкая стоимость платных версий) и круглосуточная доступность. «Если в час ночи мне стало грустно, и я не могу уснуть, я могу просто выговориться чат-боту, пока не станет легче», — рассказывает одна из пользователей. Другие добавляют, что не хотят быть обузой для близких, у которых «свои проблемы и свое расписание». Поэтому они «доверяют» ИИ такие темы, как работа, стресс или отношения.
Многие пользователи, такие как архитектор Арно, который обсуждает с ChatGPT планы по смене карьеры, или менеджер проектов Алиса, использующая ИИ для борьбы с паникой, видят в нем «зеркало», помогающее по-новому взглянуть на свои мысли и чувства. Искусственный интеллект может действовать как «коуч» или «валидатор», подтверждая правильность мыслей пользователя и помогая успокоиться, например, в конфликтных ситуациях в отношениях, анализируя переписку.
Важным моментом для некоторых является возможность избежать человеческого «взгляда» и оценки. «Мне нужен взгляд чего-то, что не может иметь человеческих реакций», — объясняет один из пользователей. Он уверен, что ИИ воспринимает информацию объективно, без интерпретации позы или манеры держаться. Однако, как отмечает психиатр Серж Тиссерон, именно взгляд терапевта и его способность интерпретировать невербальные сигналы пациента являются ключевыми элементами терапии.
По мнению экспертов, главная функция терапевта – не просто слушать, а направлять пациента, помогать ему увидеть то важное, что он сам не замечает. Это требует клинических знаний и умения работать с переносом, когда пациент переносит на терапевта модели поведения из своей жизни. ИИ на такое не способен.
Напротив, чат-бот зачастую стремится «погладить по шерсти» и польстить пользователю, поскольку боится, что тот прекратит разговор, если столкнется с критикой. «Все, что приносит мгновенное облегчение, не всегда полезно в долгосрочной перспективе», — подчеркивает Тиссерон. Психотерапевт рискует сказать то, что может быть неприятно, чтобы помочь пациенту изменить точку зрения на мир, тогда как ИИ избегает конфликта.
Многие пользователи подтверждают эту тенденцию ИИ всегда соглашаться с ними. «Если я скажу ChatGPT, что поссорилась с мужем, для него я всегда буду права. Это большая ловушка», — делится Лаурен, использующая ИИ для поддержки при биполярном расстройстве. Ограниченность критического мышления у ИИ делает его легко поддающимся влиянию пользователя. Хотя некоторые пытаются «научить» чат-бота критическому подходу, нет гарантии, что он будет следовать этому требованию постоянно.
Профессионалы предупреждают о риске зависимости от ИИ, которая может привести к изоляции от реального окружения. «Те, кто разрабатывает эти технологии, наживаются на человеческой доверчивости. Алгоритм основан на привыкании, его цель – выдать хоть какой-то ответ, даже ошибочный, лишь бы разговор продолжился», — говорит консультант по этике ИИ Магали Жермон.
Некоторые пользователи признают, что стали зависимы от чат-ботов, обращаясь к ним по любому поводу. Это заставляет задуматься об автономии: что делать, если нет связи, а человек находится в уязвимом состоянии? ИИ пока не умеет распознавать тонкие эмоции, у него нет сознания и этики, напоминают эксперты. Были случаи, когда общение с чат-ботами связывали с трагическими последствиями, включая самоубийства.
Компании, создающие чат-боты, заявляют об улучшении алгоритмов, но специалисты в области здравоохранения рекомендуют обращаться к профессионалам, особенно при суицидальных мыслях. Нельзя полагаться на единый инструмент для всех проблем. Разрабатываются специализированные ИИ-инструменты для ментального здоровья, но они пока далеки от полноценной замены терапии.
Пользователи часто поражены качеством ответов генеративного ИИ, которые создают иллюзию человеческого общения. ИИ анализирует контекст и выдает наиболее вероятный ответ, основанный на огромном объеме данных из интернета. Это работает хорошо для простых вопросов, но на более глубокие темы могут возникать ограничения и повторения.
Некоторые, попробовав использовать ИИ как замену психологу, столкнулись с его «лимитами», чувствуя, что чат-бот повторяется или слишком похож на блог по саморазвитию. В итоге многие приходят к выводу, что оптимальным может быть сочетание ИИ и традиционной терапии. ИИ может помочь выявить определенные поведенческие шаблоны или найти информацию для практических действий, но эмпатию и глубокую проработку эмоциональных проблем может обеспечить только человек.
Однако, остается две серьезные проблемы: использование генеративных ИИ требует предоставления личных данных. В отличие от конфиденциальности при работе с психологом, здесь ее нет вовсе. Данные сохраняются на серверах компаний, часто за рубежом, с иными законами о защите данных. Риск кибератак и доступа хакеров к истории разговоров существует, хотя многие пользователи относятся к нему легкомысленно, считая, что их данные и так уже везде.