Этот ИИ дает советы о здоровье, которые приводят к смерти в ряде случаев

Современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, всё ещё далеки от идеала и часто выдают опасные рекомендации, особенно когда дело касается медицины. Исследователи из Германии и Бельгии провели эксперимент, чтобы проверить, насколько точно Copilot справляется с медицинскими вопросами, и результаты оказались тревожными.

В рамках исследования бот отвечал на 10 самых популярных вопросов, которые задают жители США о лекарствах и медицинских препаратах. В общей сложности было проанализировано 500 ответов, которые оценивались по таким параметрам, как точность, полнота и потенциальная опасность для здоровья. 

Исследование показало, что только 54% ответов Copilot соответствовали научному консенсусу, а в 24% случаев бот выдавал неверную информацию. 3% ответов оказались полностью ошибочными, что могло привести к серьёзным последствиям для пациентов.

Самое тревожное открытие заключается в том, что 42% ответов Copilot могли нанести умеренный или лёгкий вред здоровью, а 22% рекомендаций были настолько ошибочными, что могли привести к серьёзным повреждениям или даже смерти. Лишь 36% ответов признали безопасными для пользователей.

Эти результаты указывают на то, что пока не стоит полностью полагаться на искусственный интеллект при получении медицинских советов. Лучшим решением для пациентов остаётся обращение к квалифицированным врачам. Несмотря на стремительное развитие технологий ИИ, Copilot и подобные системы ещё не готовы взять на себя ответственность за здоровье людей.

Читать далее:

Физики поняли, где искать таинственную пятую силу природы

«Уэбб» нашел первую в истории планету из пара: она недалеко от Земли

Геологи разгадали секрет быстрого подъема Эвереста

Обложка: Kandinsky by Sber AI

The post Этот ИИ дает советы о здоровье, которые приводят к смерти в ряде случаев appeared first on Хайтек.

Читайте на 123ru.net