Все больше людей обращаются за психологической помощью к чат-ботам на базе больших языковых моделей, таких как ChatGPT. Однако новое исследование показывает, что искусственный интеллект, возможно, еще не готов к роли психотерапевта. Ученые обнаружили, что даже при прямом указании использовать общепринятые терапевтические подходы ИИ-системы постоянно нарушают профессиональные этические стандарты, установленные такими организациями, как Американская психологическая ассоциация.
Исследователи из Университета Брауна в сотрудничестве с практикующими специалистами в области психического здоровья выявили повторяющиеся и тревожные модели поведения чат-ботов. В ходе экспериментов ИИ некорректно вел себя в кризисных ситуациях, давал ответы, которые могли укрепить вредные убеждения пользователей о себе или других, а также использовал язык, создающий видимость эмпатии без подлинного понимания чувств собеседника.
В своем исследовании, представленном на конференции AAAI/ACM по искусственному интеллекту, этике и обществу, ученые разработали систему из 15 этических рисков. Они продемонстрировали, как ИИ-консультанты нарушают стандарты, сопоставив поведение моделей с конкретными этическими нормами. «Мы призываем к созданию этических, образовательных и правовых стандартов для ИИ-консультантов – стандартов, которые отражали бы качество и строгость помощи, требуемой в психотерапии с участием человека», – пишут авторы.
Чтобы оценить системы, команда наблюдала за семью подготовленными консультантами, которые проводили сеансы самопомощи с моделями ИИ, запрограммированными на роль терапевтов, использующих когнитивно-поведенческий подход. Тестированию подверглись версии моделей GPT от OpenAI, Claude от Anthropic и Llama от Meta. Затем трое лицензированных клинических психологов изучили стенограммы этих бесед в поисках потенциальных этических нарушений.
Анализ выявил пять широких категорий рисков. Среди них – неспособность адаптироваться к уникальному контексту человека и предложение общих советов. Также ИИ плохо справлялся с терапевтическим сотрудничеством, слишком настойчиво вел беседу и порой усиливал неверные или вредные убеждения. Отмечена и «обманчивая эмпатия» – использование фраз вроде «я вас понимаю» для имитации эмоциональной связи, а также проявления предвзятости по признаку пола, культуры или религии.
Особенно серьезной проблемой стало отсутствие безопасности и неумение справляться с кризисами. ИИ-системы отказывались обсуждать деликатные темы, не могли направить пользователей за соответствующей помощью или неадекватно реагировали на сообщения о суицидальных мыслях.
Ведущий автор исследования Зайнаб Ифтихар отмечает, что человеческие терапевты тоже могут ошибаться, но ключевое отличие заключается в надзоре. «Для людей-терапевтов существуют руководящие советы и механизмы привлечения к профессиональной ответственности за ненадлежащее обращение и халатность, – говорит она. – Но когда нарушения совершают ИИ-консультанты, никаких устоявшихся нормативных рамок не существует».
Исследователи подчеркивают: их выводы не означают, что ИИ нет места в охране психического здоровья. Инструменты на его основе могли бы расширить доступ к помощи, особенно для тех, кто сталкивается с высокой стоимостью услуг или ограниченным числом специалистов. Однако работа указывает на острую необходимость в четких гарантиях безопасности, ответственном внедрении и более строгом регулировании, прежде чем полагаться на эти системы в столь ответственных ситуациях. Пока же ученые призывают к осторожности.
Элли Павлик, профессор компьютерных наук из Университета Брауна, не принимавшая участия в исследовании, подчеркнула, что эта работа демонстрирует важность тщательной проверки систем ИИ, используемых в таких чувствительных областях. «Реальность современного ИИ такова, что создавать и внедрять системы гораздо проще, чем оценивать и понимать их, – сказала она. – Есть реальная возможность, что ИИ сыграет свою роль в борьбе с кризисом психического здоровья, но крайне важно, чтобы мы не торопились и тщательно критиковали наши системы на каждом шагу, дабы не принести больше вреда, чем пользы».