В Британии заявили об опасности медицинских обзоров ИИ от Google
Функция AI Overviews от американской компании Google, предназначенная для создания медицинских обзоров и предоставления соответствующих рекомендаций, распространяет недостоверную и вводящую в заблуждение информацию, которая может представлять опасность для здоровья людей. Об этом 2 января сообщила британская газета The Guardian.
Журналисты провели исследование и выяснили, что часть материалов, созданных этим искусственным интеллектом, содержит ложные сведения уже с первых строк. Эксперты, которым предложили оценить подготовленные AI Overviews обзоры, подтвердили, что их рекомендации часто полностью противоречат указаниям врачей.
«В одном случае Google ошибочно советовал людям с раком поджелудочной железы избегать пищи с высоким содержанием жиров. <…> В другом <…> компания предоставила ложную информацию о важных тестах функционирования печени, что может заставить людей с серьезным заболеванием печени ошибочно думать, что они здоровы», — рассказало издание.
Кроме того, при повторении одного и того же запроса нейросеть выдавала разные ответы, основанные на данных из различных источников.
Представители Google, ознакомившиеся с материалами, заявили, что обзоры содержат ссылки на авторитетные источники и рекомендации обратиться к экспертам за консультацией. Они также отметили, что подавляющее большинство обзоров были «полезными».
«Если AI Overviews неправильно интерпретирует веб-контент или упускает контекст, она (компания. — Прим. ред.) будет принимать меры в соответствии со своей политикой», — процитировали Google журналисты.
Кроме того, издание напомнило о серьезных ошибках нейросетей в других сферах. Так, например, ИИ-ассистенты различных разработчиков давали неточные финансовые рекомендации. Также газета напомнила о неточностях в изложении новостей нейросетями.
Как ранее сообщал 5-tv.ru, нейросеть подтолкнула мужчину к суициду и убийству матери. 56-летний мужчина, страдавший психическим расстройством, несколько месяцев активно общался с чат-ботом ChatGPT. В переписках он делился параноидальными идеями, нейросеть же его поддерживала в этих убеждениях, что, по мнению родственников, в итоге подтолкнуло его пойти на расправу над родителем.
Еще больше новостей — у Пятого канала в мессенджере MAX.