Исследование: ИИ-психотерапевты систематически нарушают этические нормы

Пустой кабинет психотерапевта с креслом и столиком, на котором стоит ноутбук со светящимся абстрактным изображением на экране.
Все больше людей обращаются за психологической помощью к чат-ботам на базе больших языковых моделей, таких как ChatGPT. Однако новое исследование показывает, что искусственный интеллект, возможно, еще не готов к роли психотерапевта. Ученые обнаружили, что даже при прямом указании использовать общепринятые терапевтические подходы ИИ-системы постоянно нарушают профессиональные этические стандарты, установленные такими организациями, как Американская психологическая ассоциация.

Исследователи из Университета Брауна в сотрудничестве с практикующими специалистами в области психического здоровья выявили повторяющиеся и тревожные модели поведения чат-ботов. В ходе экспериментов ИИ некорректно вел себя в кризисных ситуациях, давал ответы, которые могли укрепить вредные убеждения пользователей о себе или других, а также использовал язык, создающий видимость эмпатии без подлинного понимания чувств собеседника.

В своем исследовании, представленном на конференции AAAI/ACM по искусственному интеллекту, этике и обществу, ученые разработали систему из 15 этических рисков. Они продемонстрировали, как ИИ-консультанты нарушают стандарты, сопоставив поведение моделей с конкретными этическими нормами. «Мы призываем к созданию этических, образовательных и правовых стандартов для ИИ-консультантов – стандартов, которые отражали бы качество и строгость помощи, требуемой в психотерапии с участием человека», – пишут авторы.

Чтобы оценить системы, команда наблюдала за семью подготовленными консультантами, которые проводили сеансы самопомощи с моделями ИИ, запрограммированными на роль терапевтов, использующих когнитивно-поведенческий подход. Тестированию подверглись версии моделей GPT от OpenAI, Claude от Anthropic и Llama от Meta. Затем трое лицензированных клинических психологов изучили стенограммы этих бесед в поисках потенциальных этических нарушений.

Анализ выявил пять широких категорий рисков. Среди них – неспособность адаптироваться к уникальному контексту человека и предложение общих советов. Также ИИ плохо справлялся с терапевтическим сотрудничеством, слишком настойчиво вел беседу и порой усиливал неверные или вредные убеждения. Отмечена и «обманчивая эмпатия» – использование фраз вроде «я вас понимаю» для имитации эмоциональной связи, а также проявления предвзятости по признаку пола, культуры или религии.

Особенно серьезной проблемой стало отсутствие безопасности и неумение справляться с кризисами. ИИ-системы отказывались обсуждать деликатные темы, не могли направить пользователей за соответствующей помощью или неадекватно реагировали на сообщения о суицидальных мыслях.

Ведущий автор исследования Зайнаб Ифтихар отмечает, что человеческие терапевты тоже могут ошибаться, но ключевое отличие заключается в надзоре. «Для людей-терапевтов существуют руководящие советы и механизмы привлечения к профессиональной ответственности за ненадлежащее обращение и халатность, – говорит она. – Но когда нарушения совершают ИИ-консультанты, никаких устоявшихся нормативных рамок не существует».

Исследователи подчеркивают: их выводы не означают, что ИИ нет места в охране психического здоровья. Инструменты на его основе могли бы расширить доступ к помощи, особенно для тех, кто сталкивается с высокой стоимостью услуг или ограниченным числом специалистов. Однако работа указывает на острую необходимость в четких гарантиях безопасности, ответственном внедрении и более строгом регулировании, прежде чем полагаться на эти системы в столь ответственных ситуациях. Пока же ученые призывают к осторожности.

Элли Павлик, профессор компьютерных наук из Университета Брауна, не принимавшая участия в исследовании, подчеркнула, что эта работа демонстрирует важность тщательной проверки систем ИИ, используемых в таких чувствительных областях. «Реальность современного ИИ такова, что создавать и внедрять системы гораздо проще, чем оценивать и понимать их, – сказала она. – Есть реальная возможность, что ИИ сыграет свою роль в борьбе с кризисом психического здоровья, но крайне важно, чтобы мы не торопились и тщательно критиковали наши системы на каждом шагу, дабы не принести больше вреда, чем пользы».

Олег Зимин

Олег Зимин – научный журналист издания «Град науки», который специализируется на биологии, медицине и экологии, регулярно публикуясь в рубриках «Зеленая зона» и «Аптекарский переулок». Он пишет о том, как препараты от блох для питомцев угрожают экосистемам , как пумы влияют на пингвинов в Патагонии и как мука меняет микробиом хлебной закваски. В медицинских статьях Олег освещает новые методы лечения онкологии, например, способность иммунных клеток атаковать рак внутри опухоли и снятие сахарной «маскировки» с рака поджелудочной железы. Также он рассказывает о генах «суперстариков», защищающих от болезни Альцгеймера , и бактериях, вызывающих опьянение без алкоголя.

В «Площади разума» журналист исследует тайны мозга: от развития мозга после 25 лет до различий в мимике аутичных и нейротипичных людей. Он не обходит стороной и загадки прошлого в рубрике «Старый город» , публикуя материалы о древних микробах, дышавших кислородом , и связи исчезновения «хоббитов» с засухой на острове Флорес. В разделе «Проспект металлургов» Олег пишет о нанотехнологиях и новых материалах , а в «Набережной стихий» – об угрозах для океана и скрытых фрагментах тектонических плит.