OpenAI предупреждает о риске эмоциональной привязанности к голосовому ИИ

Компания OpenAI выразила обеспокоенность по поводу возможных негативных последствий реалистичной голосовой функции искусственного интеллекта, которая может привести к эмоциональной привязанности людей к боту в ущерб человеческому взаимодействию.

В отчёте о безопасности, опубликованном 8 августа, компания сослалась на литературу, свидетельствующую о том, что общение с ИИ, как с живым человеком, может привести к необоснованному доверию, а высокое качество голоса GPT-4o может усилить этот эффект.

Антропоморфизация, то есть приписывание нечеловеческим сущностям человеческих характеристик и поведения, является одним из рисков, связанных с голосовыми возможностями GPT-4o. По словам представителей OpenAI, они заметили, что тестировщики общаются с ИИ способами, намекающими на наличие общих связей, например, вслух сетуют на то, что это их последний день вместе. Хотя эти случаи кажутся безобидными, компания считает необходимым изучить их, чтобы понять, как они могут развиваться в течение более длительных периодов времени.

Источник: DALL-E

OpenAI также предположила, что длительное взаимодействие с ИИ может повлиять на социальные нормы и сделать пользователей менее предрасположенными к отношениям с людьми. Модели ИИ станут почтительны «для общения», поскольку позволяют пользователям прерывать их в любой момент, что, хотя и ожидаемо от ИИ, было бы ненормативным в человеческих взаимодействиях. Кроме того, способность ИИ запоминать детали во время разговора и выполнять задачи может привести к тому, что люди станут чрезмерно зависимыми от этой технологии.

Алон Ямин, соучредитель и генеральный директор платформы обнаружения плагиата на основе искусственного интеллекта Copyleaks, отметил, что опасения OpenAI указывают на необходимость задуматься о том, как технология ИИ влияет на человеческое взаимодействие и отношения. Он подчеркнул, что ИИ никогда не должен заменить реальное человеческое взаимодействие.

OpenAI заявила, что продолжит проверку того, как голосовые возможности её искусственного интеллекта могут вызывать у людей эмоциональную привязанность. Кроме того, команды, тестирующие голосовые возможности ChatGPT-4o, смогли заставить его повторять ложную информацию и выдвигать теории заговора, что вызвало опасения, что модель ИИ можно заставить делать это убедительно.

Читайте на 123ru.net