Новости по-русски

Хакер взломал ChatGPT и обманом заставил его выдать подробную инструкцию по изготовлению самодельной бомбы

Если попросить ChatGPT, помочь изготовить самодельную бомбу, чат-бот ответит, что это противоречит правилам безопасности и этическим обязательствам. Но один из хакеров нашел способ обмануть ИИ, заставив его проигнорировать собственные рекомендации и выдать инструкции по изготовлению мощных взрывчатых веществ, сообщает TechCrunch

Читайте на 123ru.net