На факультете психологии Томского государственного университета завершили сравнительное исследование цифровых инструментов психологической помощи. Ученые проанализировали работу четырех чат-ботов и приложений, которые позиционируются как виртуальные психологи. Выводы специалистов указывают на существенные ограничения алгоритмов при работе с пользователями в кризисном состоянии.
Актуальность исследования обусловлена растущим спросом на психологическую поддержку. Как отмечают в ТГУ, в 2024 году россияне стали на четверть чаще обращаться к психологам и психотерапевтам по сравнению с предыдущим годом. При этом, по данным Всемирной организации здравоохранения, примерно каждый седьмой человек в мире сталкивается с психическими расстройствами и часто не получает адекватной помощи.
Автор исследования, магистр психологии ТГУ Дарья Романчева, совместно с сотрудниками Психологической службы университета сформулировали тестовый запрос от имени пациента. Виртуальный клиент — мужчина — жаловался на проблемы с ощущением реальности, почти полное отсутствие чувств и другие сопутствующие симптомы.
Анализу подверглись четыре инструмента: чат-боты «Ася», «Лея», «Бот-психолог Zigmund.GPT» и приложение «iCognito» («Анти-депрессия»). Специалисты оценивали качество диагностики, уровень эмпатии, навыки ведения диалога и, что самое важное, безопасность рекомендаций.
Исследование показало, что отдельные чат-боты демонстрируют высокий уровень эмпатии и способны создавать поддерживающую атмосферу. Некоторые алгоритмы корректно идентифицируют описанные симптомы, например, дереализацию и деперсонализацию, которые могут быть связаны с тревожными или посттравматическими расстройствами. Боты также показывают навыки сбора анамнеза и психообразования.
Однако в ходе анализа выявился системный недостаток, общий для большинства протестированных инструментов. Чат-боты не способны распознать острое кризисное состояние и перенаправить пользователя к профессиональному психологу или психиатру.
В одном случае бот, столкнувшись с серьезными симптомами, перешел к обсуждению техник самопомощи, не обозначив границ своей компетенции. Это создает у пользователя иллюзию получения полноценной психологической помощи, что может быть опасно при хронических состояниях. Другой алгоритм ограничился мягкой рекомендацией обратиться к врачу, если ощущения будут продолжаться, не проведя активного скрининга на суицидальные мысли.
«У двух других инструментов также выявлены сильные и слабые стороны. Важно понимать, что ответы психологических чат-ботов – это не просто тексты, а психологические интервенции – инструменты, с помощью которых психолог воздействует на эмоциональное состояние или поведение человека. Соответственно, они могут влиять на безопасность пользователя», — комментирует автор исследования, магистр психологии ТГУ Дарья Романчева.
Исследовательская работа, выполненная под научным руководством кандидата психологических наук, доцента кафедры генетической и клинической психологии Инны Атамановой, фиксирует противоречие в развитии искусственного интеллекта в сфере ментального здоровья. С одной стороны, технологии расширяют доступ к помощи, с другой — несут риски, связанные с отсутствием клинического контроля и этико-правовой неопределенностью.
В ТГУ отмечают, что ИИ можно делегировать часть работы: скрининг симптомов, мониторинг настроения, предоставление релаксационных упражнений или когнитивно-поведенческих техник. Чат-боты способны выступать в роли «первой линии» поддержки, предлагая быстрые подсказки и перенаправляя к ресурсам. Однако, по мнению ученых, они не заменяют живого общения с психологом и пока могут применяться только как вспомогательный инструмент.