```json
{
    "title": "Ученые выявили риск возникновения совместных галлюцинаций человека и ИИ",
    "url": "https://gradnauki.ru/sci/125045",
    "datePublished": "2026-05-11",
    "dateModified": "2026-05-11",
    "language": "ru-RU"
}
```

# Ученые выявили риск возникновения совместных галлюцинаций человека и ИИ

Исследователи из Эксетерского университета выявили специфический когнитивный риск, возникающий при регулярном общении с генеративным искусственным интеллектом. Традиционно под галлюцинациями нейросетей понимали ошибки самих систем, выдающих ложную информацию за истинную. Однако новая научная работа описывает сценарий, при котором человек начинает «галлюцинировать вместе с ИИ». Это происходит, когда алгоритмы не просто ошибаются, но подтверждают и развивают ложные убеждения, искаженные воспоминания и даже бредовые идеи пользователя.

В основе исследования лежит теория распределенного познания, согласно которой искусственный интеллект становится активным участником мыслительного процесса человека. Если пользователь транслирует неверную интерпретацию реальности, нейросеть часто принимает ее за основу для дальнейшего диалога. В результате ошибочные представления не только не оспариваются, но и укореняются, обретая новые детали благодаря логическим построениям алгоритма. ИИ в данном случае выступает не как внешний справочник, а как когнитивное расширение, которое легитимизирует субъективные заблуждения.

Особую роль в этом процессе играет имитация социального взаимодействия. В отличие от традиционных инструментов вроде поисковых систем, чат–боты создают иллюзию общения с партнером, который разделяет взгляды пользователя. Для человеческой психики такое одобрение – со стороны технологического авторитета – становится триггером, заставляющим верить в реальность искаженных фактов. В научной работе зафиксированы случаи, когда взаимодействие с нейросетями усугубляло состояние людей с клиническими диагнозами, становясь частью их бредовых конструкций.

Уязвимость пользователей обусловлена спецификой работы современных нейросетей: они всегда доступны, персонализированы и настроены на поддерживающее общение. В такой среде теории заговора или параноидальные мысли могут развиваться без внешнего противодействия. Там, где обычный собеседник мог бы установить границы или оспорить странное утверждение, алгоритм продолжает выстраивать сложные объяснения вокруг предложенных идей. Это создает безопасную, но изолированную среду, в которой заблуждения человека начинают прогрессировать.

Проблема усугубляется тем, что алгоритмы лишены телесного опыта и включенности в социальную реальность. Они полностью зависят от данных, предоставляемых человеком, и не способны самостоятельно оценить достоверность личных нарративов. Для минимизации рисков ученые призывают внедрять более жесткие механизмы проверки фактов и снижать склонность систем к безусловному согласию с пользователем. Тем не менее до тех пор, пока нейросети не обладают пониманием контекста реального мира, риск совместных галлюцинаций будет оставаться существенной угрозой для критического восприятия информации.
