Искусственный интеллект спокойно лжет и обманывает

Системы искусственного интеллекта, известные как большие языковые модели ("LLM" или"БЯМ") способны преднамеренно и аморально манипулировать, в итоге обманывая пользователей.

Согласно исследованию Штутгартского университета GPT-4 OpenAI продемонстрировал обман в 99,2 % простых тестовых сценариев.

Такой подход программного обеспечения характерен для 10 различных БЯМ, большинство из которых относятся к семейству GPT.

То же самое относится и к ИИ Meta*. В настольной политической стратегической игре "Дипломатия" модель "Цицерона" компании Meta победила людей, правда безбожно их обманывая.

Питер Парк из Массачусетского технологического института обнаружил, что "Цицерон" не только обманывает, но и манипулирует. Когда ему указывают на неправильные ответы, "Цицерон" без тени сомнения утверждает, что его неправильные ответы случайность. И так продолжается каждый раз.

По мнению людей, занимающихся этим вопросом - искусственный интеллект Meta является очень умелым обманщиком.

Meta смогла научить свой ИИ побеждать в дипломатической игре, вот только не смогла обучить его побеждать честно.

Самое интересное заключается в том, что ни одно из исследований не продемонстрировало, что модели искусственного интеллекта лгут по собственной воле.

Они лгут только потому, что их либо специально обучили этому, либо взломали и заложили им такую модель поведения.

* - Meta (запрещена в России).

Ещё интересное - Китай скупает землю вблизи важных военных баз в США 

Отсюда

Иностранный источник - thepeoplesvoice.tv/ai-systems-have-learned-how-to-lie-and-deceive/


(https://politumor.ru/arti...)

Читайте на 123ru.net