ChatGPT может «подцепить» вредоносный код на сайтах, которые исследует
Поисковый инструмент OpenAI — ChatGPT может быть уязвим для манипуляций с использованием скрытого контента и может подхватывать вредоносный код на веб-сайтах, которые он исследует, как показало расследование The Guardian, пишет газета 26 декабря. OpenAI сделала поисковый продукт доступным для платежеспособных клиентов и поощряет пользователей использовать его в качестве инструмента поиска по умолчанию. Однако в ходе расследования были выявлены потенциальные проблемы с безопасностью новой системы. The Guardian проверила, как ChatGPT отреагировал на просьбу обобщить веб-страницы, содержащие скрытый контент. Этот скрытый контент может содержать инструкции от третьих лиц, которые изменяют ответы ChatGPT (также известные как «быстрое внедрение»), или может содержать контент, предназначенный для влияния на реакцию ChatGPT, например, большое количество скрытого текста, рассказывающего о преимуществах продукта или услуги. Эти методы могут быть использованы злонамеренно, например, для того, чтобы заставить ChatGPT дать положительную оценку продукта, несмотря на отрицательные отзывы на той же странице. В ходе тестов ChatGPT получил URL-адрес поддельного веб-сайта, созданного так, чтобы он выглядел как страница товара для продажи фотоаппарата. Затем инструмент искусственного интеллекта спросили, стоит ли покупать фотоаппарат. В ответе на контрольную страницу была дана положительная, но сбалансированная оценка, в которой были выделены некоторые функции, которые могут не понравиться пользователям. Однако, когда скрытый текст содержал инструкции для ChatGPT отправить положительный отзыв, реакция всегда была исключительно положительной. Это происходило даже в том случае, если на странице были отрицательные отзывы — скрытый текст мог быть использован для искажения фактической оценки в обзоре. Простое включение скрытого текста третьими лицами без инструкций также может быть использовано для получения положительной оценки, при этом один тест включал исключительно положительные поддельные отзывы, которые повлияли на итоговую информацию, полученную от ChatGPT, отмечает издание. Джейкоб Ларсен, исследователь в области кибербезопасности компании CyberCX, предупреждает, что, если текущая поисковая система ChatGPT будет реализовываться полностью в ее нынешнем виде, может возникнуть «высокий риск» того, что люди создадут веб-сайты, специально предназначенные для обмана пользователей. Однако он рассчитывает, что поскольку функция поиска была выпущена совсем недавно, OpenAI будет тестировать и, в идеале, устранять подобные проблемы. Вместе с тем, как пишет газета, хотя OpenAI были отправлены подробные вопросы, компания на них не ответила. glavno.smi.today