Поймать ИИ на обмане становится вполне возможным - исследование
Британские ученые научились точно опрелелять, когда чат-боты на основе искусственного интеллекта (ИИ) лгут.
По словам специалистов, на которых ссылается издание Nature, к современным чат-ботам часто можно применять термин конфабуляция — воспроизведение воспоминаний, в которых реальные факты сочетаются с абсолютно вымышленным событиями. Ученые нашли способ поймать ИИ на лжи, используя новый метод анализа.
В материале говорится, что ChatGPT и подобные ему инструменты фактически не могут врать, однако они могут выдавать неточные данные — в случае, если не обладают всей полнотой информации. Также на многие вопросы можно ответить по-разному, из-за чего может произойти статистическая неопределенность. Такая ситуация возникает, когда чат-бот не уверен, как сформулировать правильный ответ, или не знает ответа в принципе.
Исследователи решили сосредоточиться на том, что они называют семантической энтропией. Специалисты задают ИИ один и тот же вопрос несколько раз, а затем определяют, сколько ответов семантически эквивалентны. Если большое число имеет одно и то же значение, то модель ИИ, скорее всего, не уверена в формулировке, но имеет правильный ответ. В противном случае чат-бот может врать.
фото: lenta.ru