БЯМ превращают вредоносный код в невидимый для антивирусов

Разработчики искусственного интеллекта принимают меры по повышению уровня безопасности своих платформ. Так, в октябре 2024 года OpenAI пресекла деятельность более 20 операций и мошеннических сетей, которые пытались использовать ее сервисы для разведки, поиска уязвимостей, поддержки скриптов и отладки программного обеспечения. Тем не менее, злоумышленники активно используют такие инструменты, как WormGPT, для автоматизации создания изощренных фишинговых атак и разработки новых, более опасных видов вредоносного ПО.

«Хотя БЯМ с трудом создают вредоносное ПО с нуля, преступники могут легко использовать их для перезаписи или маскировки уже существующего вредоносного ПО, что затрудняет его обнаружение. Злоумышленники могут давать БЯМ запросы на выполнение преобразований, которые выглядят гораздо более естественно, что усложняет обнаружение этого вредоносного ПО», — говорится в новом анализе исследователей Unit 42 из Palo Alto Networks.

Исследователи из Unit 42 применили большие языковые модели для генерации 10 000 новых вариантов вредоносного JavaScript-кода на основе существующих образцов. Полученные варианты сохраняли исходную функциональность, но при этом «притворялись» куда менее вредоносными, обходя такие системы обнаружения, как Innocent Until Proven Guilty (IUPG) и PhishingJS.

Примечательно, что даже собственная система классификации Unit 42 в 88% случаев ошибочно признавала модифицированный код безопасным. Аналогичные результаты были получены при проверке на платформе VirusTotal.

В методах ИИ нет ничего принципиально нового. Применяется ряд стандартных техник: переименование переменных, фрагментация строк, вставка избыточного кода, удаление избыточных пробельных символов и полная переработка исходного кода. Этот процесс повторяется до 10 000 раз, из-за чего антивирусы начинают считать измененный код безвредным.

Искусственный интеллект генерирует более естественные варианты кода по сравнению с библиотеками вроде obfuscator.io, которые из-за характерных изменений легче обнаруживаются и идентифицируются. В Unit 42 считают, что генеративный ИИ может значительно увеличить количество новых вариантов вредоносного кода. Однако те же методы переписывания можно использовать для создания обучающих данных и повышения устойчивости моделей машинного обучения. Появление новых угроз стимулирует развитие более совершенных методов защиты.

Читайте на 123ru.net