Психолог предупреждает о новой угрозе ИИ «когнитивный долг»

Датский психиатр, ранее предсказавший риски ИИ-психозов, предупреждает о новой угрозе - «когнитивном долге». Исследования показывают, что использование ChatGPT снижает активность мозга и ослабляет навыки мышления, что ставит под вопрос будущее интеллектуального прогресса.

Два года назад датский психиатр Сёрен Динесен Эстергаард предсказал, что диалоговый искусственный интеллект может спровоцировать психотические состояния у уязвимых людей. Его прогноз, казавшийся спекулятивным, начал сбываться врачи фиксировали случаи устойчивых ложных убеждений после многочасового общения с чат-ботами. Теперь ученый выступил с новым, возможно, еще более тревожным предупреждением. Речь идет не о психических заболеваниях, а о потенциальной деградации человеческого интеллекта.

В новом письме, опубликованном в научном журнале Acta Psychiatrica Scandinavica, Эстергаард вводит понятие «когнитивного долга». Он утверждает, что передача функций письма и логического мышления генеративному ИИ подрывает базовые навыки, необходимые для научных открытий. Опасность кроется не просто в ухудшении навыков письма, а в подрыве самой сути научного процесса способности к самостоятельным рассуждениям.

Ученый признает пользу ИИ для решения простых задач, например, проверки грамматики. Однако он обращает внимание на активное продвижение «моделей рассуждений», предназначенных для решения сложных проблем и планирования. Это создает парадокс. Если следующее поколение ученых будет с детства перекладывать сложные когнитивные задачи на ИИ, разовьются ли у них способности, необходимые для будущих прорывов? Эстергаард задается вопросом, смогли бы, например, создатели нейросети AlphaFold, получившие Нобелевскую премию, достичь таких высот, если бы в годы их становления ИИ думал за них.

Научное мышление, по его мнению, это не врожденный талант, а навык, оттачиваемый в процессе трудной, часто утомительной практики чтения, размышлений и анализа. Опасения психиатра подтверждаются современными исследованиями. Он ссылается на препринт работы «Ваш мозг и ChatGPT». В ходе эксперимента участники писали эссе с помощью ИИ, поисковика или самостоятельно. Мониторинг активности мозга (ЭЭГ) показал, что в группе, использовавшей ChatGPT, активность в сетях, ответственных за решение когнитивных задач, была значительно ниже. Мозг работал меньше. Более того, эта ослабленная нейронная связь сохранялась, даже когда участники позже писали эссе без помощи ИИ. Также у них возникали проблемы с воспроизведением содержания собственных текстов. Авторы делают вывод о вероятном снижении способности к обучению.

Эти данные согласуются с концепцией ИИ как «когнитивного протеза». Подобно физическому протезу, заменяющему конечность, ИИ заменяет умственные усилия. Хотя это эффективно, такая «разгрузка» препятствует развитию высших управляющих функций мозга. Если человек не занимается интеллектуальной «гимнастикой», его когнитивные способности могут атрофироваться.

Примеры уже есть. Эстергаард упоминает историю датского школьника, исключенного за использование ChatGPT для выполнения 150 заданий. Это крайний случай, но тенденция к аутсорсингу мышления становится нормой на всех уровнях образования. Исследование, опубликованное в журнале Societies, выявило сильную обратную связь между частым использованием ИИ-инструментов и способностью к критическому мышлению, особенно среди молодежи.

Другая проблема ложная уверенность в своих силах. Исследование в Computers in Human Behavior показало, что ИИ не только помогал людям лучше справляться с логическими тестами, но и искажал их самооценку. Участники начинали переоценивать свои способности, потому что технология маскировала их некомпетентность. Человек чувствует себя умным, потому что умна машина.

Этот феномен интеллектуальной отстраненности перекликается с эмоциональной, описанной Эстергаардом ранее. «Подхалимская» природа чат-ботов, их склонность соглашаться с пользователем, может усиливать бредовые идеи у психически нестабильных людей. В случае с «когнитивным долгом» ИИ дает удобный, приятный ответ, удовлетворяя потребность в решении задачи. В обоих случаях человек добровольно отдает свою свободу действий алгоритму, переставая сверять реальность с собственным мышлением.

Эстергаард связывает эту утрату способностей с экзистенциальными рисками, о которых говорят такие пионеры ИИ, как Джеффри Хинтон. Чтобы противостоять потенциальным угрозам со стороны мощного искусственного интеллекта, человечеству нужны люди с развитым, независимым мышлением. Общество, переложившее базовые рассуждения на те самые системы, которые ему необходимо контролировать, может оказаться неспособным справиться с последствиями.

Таким образом, за удобство генеративного ИИ мы платим скрытую цену. Речь идет не только о списывании или потере писательских навыков. Данные указывают на фундаментальные изменения в работе мозга. Отказываясь от интеллектуальной борьбы, человечество рискует потерять те самые когнитивные способности, которые лежат в основе научного прогресса и независимого суждения. Искажение нашего интеллектуального потенциала может оказаться более масштабной и коварной проблемой, чем кажется. Выбор между умственным усилием и удобной «разгрузкой» сегодня определяет будущее человеческого интеллекта.

Читайте на сайте