Персонализированные алгоритмы формируют ложные убеждения и искажают обучение



Системы персонализированных рекомендаций, лежащие в основе таких платформ, как YouTube, способны влиять на процесс обучения человека. Новое исследование выявило, что при алгоритмическом отборе информации участники, не имеющие предварительных знаний по теме, склонны концентрироваться лишь на небольшой части представленного материала.

Этот ограниченный подход к изучению материала часто приводил к ошибочным ответам в последующих тестах. Примечательно, что даже при неверных ответах участники демонстрировали высокую уверенность в своих суждениях.

Подобные результаты вызывают серьёзные опасения, как отмечает Гивон Бахг, проводивший данную работу в рамках своей докторской диссертации по психологии в Университете штата Огайо.

Множество существующих исследований алгоритмов персонализации фокусируются на их влиянии на мнения по политическим или социальным вопросам, где у людей уже есть определённые знания. Но наше исследование показывает, что даже при полной неосведомлённости о предмете эти алгоритмы способны мгновенно формировать предубеждения и приводить к искажённому восприятию реальности, – поясняет Бахг, ныне постдокторант в Университете штата Пенсильвания.

Полученные данные были опубликованы в журнале Journal of Experimental Psychology: General. Профессор психологии Университета штата Огайо Брэндон Тёрнер, соавтор исследования, подчёркивает: люди склонны быстро принимать ограниченную информацию, предоставленную алгоритмами, и на её основе делать широкие, часто необоснованные выводы.

Люди упускают информацию, следуя алгоритмам, но при этом полагают, что их знания распространяются и на другие аспекты или части среды, с которыми они никогда не сталкивались, – говорит Тёрнер.

Для наглядной демонстрации этого феномена исследователи приводят простой пример: человек, никогда не смотревший фильмы определённой страны, решает попробовать. Стриминговый сервис предлагает рекомендации. Зритель выбирает боевик, поскольку тот находится в топе списка. Алгоритм в ответ начинает предлагать ещё больше боевиков, которые зритель продолжает выбирать.

Если целью человека, явной или неявной, было понять общую картину кинематографа этой страны, то алгоритмическая рекомендация серьёзно искажает это понимание, – пишут авторы. В результате, видя лишь один жанр, человек может упустить выдающиеся фильмы других категорий. Более того, он рискует сформировать неточные и чрезмерно обобщённые представления о культуре или обществе, представленных в этих фильмах.

Бахг и его команда экспериментально исследовали эту гипотезу с участием 346 онлайн-пользователей. Чтобы исключить влияние предварительных знаний, исследователи использовали полностью вымышленное учебное задание.

Участники изучали несколько типов инопланетных кристаллоподобных существ, каждый из которых определялся шестью признаками, варьирующимися по категориям. Например, одна квадратная часть существа могла быть тёмно-чёрной у одних типов и бледно-серой у других. Задача состояла в том, чтобы научиться идентифицировать каждый тип существа, не зная при этом, сколько всего типов существует.

Признаки существ были скрыты за серыми квадратами. В одной группе участникам требовалось кликнуть по всем признакам, чтобы увидеть полный набор информации о каждом существе. В другой группе участники выбирали, какие признаки изучать, а алгоритм персонализации подбирал, какие элементы они, скорее всего, будут просматривать чаще всего. Этот алгоритм направлял их к повторному изучению одних и тех же признаков. Участники всё ещё могли просмотреть любой признак по желанию, но им также разрешалось полностью пропускать другие.

Результаты показали, что те участники, которых направлял персонализированный алгоритм, просматривали в целом меньше признаков и делали это очень избирательно и шаблонно. При последующем тестировании на новых, ранее не виденных примерах существ они часто сортировали их неправильно. Тем не менее, участники сохраняли уверенность в своих ответах.

Они были даже более уверены, когда их выбор был фактически неверным, чем когда он был правильным, что вызывает беспокойство, поскольку их знания были ограничены, – заметил Бахг.

Тёрнер отмечает, что эти выводы имеют большое значение для реального мира. Что произойдёт, если ребёнок, искренне пытающийся познать мир, будет взаимодействовать с онлайн-алгоритмами, которые приоритезируют потребление большего контента? – задаётся вопросом Тёрнер.

Потребление однотипного контента часто не способствует обучению. Это может создавать проблемы для пользователей и в конечном итоге для общества в целом. Соавтором исследования также выступил Владимир Слуцкий, профессор психологии Университета штата Огайо.