Энтузиасты и прагматики: ученые назвали четыре типа личности пользователей ChatGPT

Мотивы взаимодействия с нейросетями существенно различаются, а универсальный подход к ИИ больше не работает. Поэтому учеными было выявлено четыре принципиально разных типа личности, к которым можно отнести всех пользователей ChatGPT. Такое исследование провели сотрудники Оксфордского университета и Берлинского университетского альянса, передает Daily Mail.

Как проходило исследование

В рамках работы ученые проанализировали 344 случая использования ChatGPT в первые четыре месяца после его публичного запуска. Авторы пришли к выводу, что юзеров невозможно рассматривать как однородную группу. Сферы применения ИИ и ожидания от технологии оказались слишком разнообразными.

Энтузиасты ИИ: технологии как собеседник

К первой группе относятся «энтузиасты ИИ» — 25,6% участников. Эти пользователи активно взаимодействуют с чат-ботом и стремятся получить не только практическую, но и социальную пользу.

По данным исследования, именно они чаще всего воспринимают ИИ как «социального партнера» и почти не испытывают опасений по поводу конфиденциальности.

Наивные прагматики: главное — результат

Во вторую группу вошли «наивные прагматики» — 20,6% опрошенных. Для них приоритетны удобство и эффективность.

Такие пользователи уверены в практической пользе ChatGPT и готовы игнорировать возможные риски, если технология помогает решать задачи быстрее и проще.

Осторожные пользователи: интерес с оглядкой

Самой многочисленной группой стали «осторожные пользователи» — 35,5% участников. Они проявляют интерес к ИИ, но постоянно сопоставляют преимущества технологии с потенциальными недостатками.

Исследователи отмечают, что именно эта категория сильнее других обеспокоена вопросами конфиденциальности.

Скептически настроенные исследователи: пробуют, но не доверяют

Наименее доверяющей ИИ группой оказались «скептически настроенные исследователи» — 18,3% пользователей. Они лишь начинают знакомство с ChatGPT и пока не видят для себя явной пользы.

Эти участники чаще всего выражают сомнения в безопасности технологии и защите персональных данных.

Почему антропоморфный ИИ может навредить

Ведущий автор исследования доктор Кристоф Герлинг отметил, что освоение ИИ требует практики и развития навыков. При этом ученые обратили внимание: несмотря на опасения по поводу конфиденциальности, три из четырех групп продолжили пользоваться чат-ботом.

Исследователи предупреждают, что попытки сделать ИИ слишком «человекообразным» могут привести к обратному эффекту.

Пользователи, обеспокоенные безопасностью данных, в таком случае склонны винить в возможных проблемах сам ИИ, а не компанию-разработчика, что способно еще сильнее подорвать доверие к технологии.

Еще больше новостей — у Пятого канала в мессенджере MAX.

Читайте на сайте