Искусственный интеллект спокойно лжет и обманывает
Системы искусственного интеллекта, известные как большие языковые модели ("LLM" или"БЯМ") способны преднамеренно и аморально манипулировать, в итоге обманывая пользователей.
Согласно исследованию Штутгартского университета GPT-4 OpenAI продемонстрировал обман в 99,2 % простых тестовых сценариев.
Такой подход программного обеспечения характерен для 10 различных БЯМ, большинство из которых относятся к семейству GPT.
То же самое относится и к ИИ Meta*. В настольной политической стратегической игре "Дипломатия" модель "Цицерона" компании Meta победила людей, правда безбожно их обманывая.
Питер Парк из Массачусетского технологического института обнаружил, что "Цицерон" не только обманывает, но и манипулирует. Когда ему указывают на неправильные ответы, "Цицерон" без тени сомнения утверждает, что его неправильные ответы случайность. И так продолжается каждый раз.
По мнению людей, занимающихся этим вопросом - искусственный интеллект Meta является очень умелым обманщиком.
Meta смогла научить свой ИИ побеждать в дипломатической игре, вот только не смогла обучить его побеждать честно.
Самое интересное заключается в том, что ни одно из исследований не продемонстрировало, что модели искусственного интеллекта лгут по собственной воле.
Они лгут только потому, что их либо специально обучили этому, либо взломали и заложили им такую модель поведения.
* - Meta (запрещена в России).
Ещё интересное - Китай скупает землю вблизи важных военных баз в США
Иностранный источник - thepeoplesvoice.tv/ai-systems-have-learned-how-to-lie-and-deceive/
(https://politumor.ru/arti...)