Новости по-русски

Ars Technica: студент не выжил после консультации с ChatGPT о смеси наркотиков

Против OpenAI подали новый иск после того, как 19-летний Сэм Нельсон принял смесь кратома, "ксанакса" и алкоголя после консультаций с ChatGPT и не выжил. Иск от имени родителей студента подан в США. Об этом сообщает издание Ars Technica.

Семья утверждает, что Нельсон годами использовал ChatGPT как основной источник информации и доверял ответам сервиса. По версии истцов, модель ChatGPT 4o фактически выступала для подростка "консультантом по наркотикам", советуя дозировки и комбинации веществ, а также поощряя эксперименты.

В иске говорится, что чат-бот предупреждал о рисках смешивания препаратов, однако позже рекомендовал комбинацию кратома и "ксанакса" как "одно из лучших решений", не упомянув риск летального исхода. Родители также заявили, что ChatGPT не распознал признаки тяжелого состояния подростка, включая проблемы со зрением и икоту, и не посоветовал срочно обратиться за медицинской помощью.

В OpenAI назвали ситуацию трагической и заявили, что модель ChatGPT 4o больше недоступна, а современные версии сервиса получили дополнительные меры безопасности. В компании подчеркнули, что ChatGPT не заменяет медицинскую помощь и сейчас использует механизмы для выявления опасных запросов и перенаправления пользователей к реальным специалистам.

Семья Нельсона требует привлечь OpenAI к ответственности, уничтожить модель ChatGPT 4o и ограничить обсуждение незаконных наркотиков в сервисе. Также истцы хотят добиться независимого аудита ИИ-инструментов компании.

Читайте на сайте