ИИ как средство от подростковой депрессии может привести к проблемам

Это новое решение Big Tech для преодоления кризиса психического здоровья молодёжи: терапия с помощью чат-бота, доступного каждому ребёнку через смартфон. Благодаря искусственному интеллекту (ИИ), проникающему в сферу психического здоровья, достаточно простого поиска в Google, чтобы создать иллюзию связи.

«Маленькие чаты для больших чувств», — рекламирует Woebot for Adolescents, чат-бот с искусственным интеллектом, который «всегда готов выслушать» и доступен «в любое время дня и ночи». Однако некоторые эксперты утверждают, что обещание иметь психотерапевта в кармане у каждого подростка противоположно тому, что действительно нужно детям, — настоящему человеческому общению.

«Они жаждут почувствовать свою принадлежность, — сказала The Epoch Times лицензированный психотерапевт Памела Гарфилд-Джегер, автор книги «Практический ответ на гендерный дистресс». — Это то, чего подростки хотят больше всего на свете».

Бесконечные связи, отсутствие истинной принадлежности

Кремниевую долину часто обвиняют в усугублении кризиса психического здоровья молодёжи с помощью социальных сетей и игровых приложений, вызывающих привыкание.

В прошлом году главный хирург США выпустил рекомендацию, в которой говорится, что риск депрессии и тревоги удваивается для детей и подростков, которые проводят в социальных сетях более трёх часов в день.

Хотя врачи называют и другие факторы, способствующие этому, включая социальную изоляцию и отсутствие независимости, многие сходятся во мнении, что подростки, зависимые от экрана, больше всего страдают от одиночества и психического здоровья.

«В наши дни детям необходимо научиться отключаться от сети и находиться вдали от своих устройств», — говорит Гарфилд-Джегер.

«Многие люди приходят на терапию из-за проблем в отношениях, и «им нужны сочувственные отношения с другим человеком», — сказала она.

Согласно веб-сайту Woebot Health, более 80% сообщений от подростков в Woebot поступают в нерабочее время, «когда нет возможности получить другую помощь». Многие из этих сообщений приходят между 3 и 5 часами утра.

Психолог Элисон Дарси, основатель и президент компании Woebot Health, создала чат-бот с искусственным интеллектом в 2017 году, ориентируясь на молодёжь. Недавно она рассказала в интервью программе «60 минут», что Woebot использует методы когнитивно-поведенческой терапии, чтобы помочь пользователям переосмыслить свои мысли.

По словам Дарси, приложение говорит то же, что и настоящий терапевт, и может вести терапевтические беседы. Однако оно не может сопереживать или понимать уникальную ситуацию человека.

После пандемии COVID-19 школьные округа по всей стране стали рекомендовать бесплатное приложение Woebot, чтобы помочь подросткам справиться с болезнью. В то же время Wysa, другое приложение для терапии психического здоровья, работающее на основе искусственного интеллекта, разработало чат-бота «COVID Anxiety», чтобы помочь подросткам справиться с беспрецедентным стрессом.

Нормальные проблемы роста

Генеральный директор и основатель компании Wysa Джо Аггарвал представила платформу для психического здоровья на основе искусственного интеллекта на саммите Всемирного экономического форума 2023 в Давосе (Швейцария).

«Подростки стали нашей первой группой», — сказала Аггарвал.

По её словам, около 30% пользователей Wysa находятся в возрасте от 13 до 25 лет.

Исследование Wysa показало, что более 80% подростков испытывают проблемы с психическим здоровьем, причём каждый третий из них нуждается в профессиональной поддержке. Эти данные сопоставимы с результатами исследования National Health Interview Survey-Teen, в ходе которого были опрошены американские подростки в возрасте от 12 до 17 лет. Выяснилось, что почти каждый пятый испытывает симптомы тревоги или депрессии.

«Но самое тревожное, — говорится на сайте Wysa, — что молодые люди не получают необходимой помощи. Более половины (55%), набравших 3 и более баллов по скрининговым опросникам GAD2 и PHQ2 для выявления тревоги и депрессии, не обращались к соответствующему специалисту».

Двухпунктовый опросник для диагностики обобщённого тревожного расстройства (GAD-2) и такой же для оценки состояния здоровья пациентов (PHQ-2) — это краткие скрининговые инструменты, используемые для быстрой оценки тревоги и депрессии.

«В зависимости от того, как человек интерпретирует эти вопросы, каждый может оказаться в депрессии, — говорит Гарфилд-Джегер. — Раньше для оценки настоящей депрессии требовалось несколько сеансов у специалиста по психическому здоровью или несколько часов».

«Я думаю, что диагноз “депрессия” и “тревога” ставят людям, у которых их нет».

«Я думаю, что всё больше людей испытывают тревогу и депрессию из-за социальной изоляции и других причин».

Писательница Эбигейл Шрайер рассмотрела этот вопрос в своей книге «Плохая терапия» и пришла к выводу, что диагнозы ставятся небрежно, как и назначаемое лечение.

«Раньше мы называли это подтверждением», — говорит Гарфилд-Джегер, которая более десяти лет работала в программе частичной госпитализации с молодыми людьми, страдающими тяжёлыми психическими заболеваниями.

«Мы подтверждаем ваше чувство, но это не значит, что ваше чувство — реальность. Это просто то, что вы чувствуете, и теперь нам нужно провести расследование и сделать то, что они называют проверкой на реальность».

В ходе расследования Шрайер также пришла к выводу, что детей часто лечат от того, что раньше считалось «нормальными болями роста».

Это побуждает родителей задавать вопросы о терапевтических оценках и языке, используемом для обучения алгоритмов ИИ. Кроме того, родителям следует учитывать другие риски и ограничения.

Чатботы с ИИ в качестве терапевтов для подростков

Эмоциональная зависимость

Когда чат-боты дают советы, которые в противном случае исходили бы от заботливых родителей или сочувствующего консультанта, подростки с большей вероятностью очеловечат чат-бота и установят с ним эмоциональную связь.

«Мы антропоморфизируем ИИ (очеловечиваем), потому что не хотим быть одинокими, — пишет писатель о технологиях и культуре Л. М. Сакасас в его бюллетене The Convivial Society. — Теперь у нас есть мощные технологии, которые, похоже, точно выверены, чтобы использовать это основное человеческое желание».

Гарфилд-Джегер говорит, что это вбивает клин между людьми.

«Теперь они хотят разговаривать со своим психотерапевтом, а не с друзьями, родителями, двоюродными братьями и сёстрами, тётями и дядями, бабушками, как это было раньше», — говорит она.

Вредные ответы

В этом году обеспокоенный пользователь с расстройством пищевого поведения обратился в Национальную ассоциацию по расстройствам пищевого поведения (NEDA) после того, как получил вредные советы по диете от чат-бота.

«Чат-бот мог дать информацию, которая была вредной и не имела отношения к программе», — написала NEDA на своей странице в Instagram (организация, деятельность которой запрещена в России).

NEDA удалила чат-бота с искусственным интеллектом, который заменил консультантов-людей на её линии помощи.

Использование личных данных

Терапевтические оздоровительные приложения не подпадают под федеральные правила конфиденциальности и в некоторых случаях передают данные третьим лицам, таким как соцсети.

Однако некоторые компании, такие как Wysa и Woebot Health, следуют протоколам безопасности «больничного уровня» и не передают и не продают данные третьим лицам.

В отчёте исследовательского центра Pew «Как американцы относятся к конфиденциальности данных» за 2023 год говорится, что среди тех, кто знаком с искусственным интеллектом, около 70% практически не уверены в способности компаний принимать ответственные решения относительно его использования в своих продуктах. По данным исследования, пациенты могут опасаться, что он используется для целевой рекламы, отслеживания или в других неблаговидных целях.

Общие сведения об ограничениях

В контексте самопомощи простые упражнения для самоуспокоения и советы по борьбе со стрессом, подобные тем, что доступны в большинстве приложений для осознанности, могут быть полезны в момент стресса.

Но для одиноких, жаждущих общения и испытывающих трудности людей — тех самых, которые, по мнению создателей чат-ботов, могут извлечь из них наибольшую пользу, — ИИ могут стать опасной заменой человека, говорит Гарфилд-Джегер.

«Я считаю, что нельзя обходиться без участия человека, — сказала она, — потому что, когда вы начинаете испытывать чувства, должен быть человек, который сможет вас успокоить или помочь, если у вас появятся суицидальные мысли».

Читайте на 123ru.net