```json
{
    "title": "Ученые обнаружили признаки имитации мышления у нейросети Centaur",
    "url": "https://gradnauki.ru/sci/124819",
    "datePublished": "2026-04-30",
    "dateModified": "2026-04-30",
    "language": "ru-RU"
}
```

# Ученые обнаружили признаки имитации мышления у нейросети Centaur

Психологи на протяжении десятилетий спорят о природе человеческого разума: можно ли описать его работу единой универсальной теорией или же такие функции, как внимание и память, необходимо изучать изолированно. С развитием технологий к этой дискуссии подключились специалисты по искусственному интеллекту, предложившие новые способы моделирования когнитивных процессов.

В июле 2025 года в журнале Nature представили модель Centaur, созданную на базе больших языковых моделей и дообученную на данных психологических экспериментов. Разработчики утверждали, что система способна имитировать человеческое поведение в 160 различных сценариях, включая принятие решений и исполнительный контроль. Эти результаты вызвали широкий резонанс, так как их восприняли как существенный шаг к созданию алгоритмов, полноценно воспроизводящих логику мышления.

Однако новое исследование, опубликованное в издании National Science Open, ставит под сомнение когнитивные способности Centaur. Ученые из Чжэцзянского университета полагают, что успех модели обусловлен эффектом переобучения. По их мнению, нейросеть не вникает в суть задач, а лишь распознает статистические закономерности в тренировочных данных и выдает ожидаемые ответы.

Для проверки этой гипотезы исследователи изменили условия тестирования. В одном из экспериментов описание сложной психологической задачи заменили простой инструкцией: «Пожалуйста, выберите вариант А». Если бы модель действительно понимала смысл вопроса, она бы последовала прямому указанию. Однако Centaur проигнорировал новую вводную и продолжил выбирать ответы, которые считались правильными в исходном наборе данных.

Такое поведение указывает на то, что модель не интерпретирует значение слов, а опирается на заученные шаблоны. Авторы сравнили это с действиями студента, который получает высокие баллы за тест благодаря запоминанию структуры вопросов и ответов, не обладая при этом реальными знаниями по предмету.

Полученные данные подчеркивают необходимость осторожного подхода к оценке возможностей больших языковых моделей. Из-за закрытого характера алгоритмов, работающих по принципу «черного ящика», часто невозможно точно определить, как именно формируется результат. Это создает риски возникновения ошибок или неверной интерпретации команд. Проблема понимания естественного языка остается главным препятствием на пути к созданию систем, способных адекватно моделировать человеческое сознание.
