Российское приложение от НИУ ВШЭ определит, написан текст человеком или сгенерирован нейросетью

С бурным развитием технологии искусственного интеллекта в сети стало появляться масса контента, сгенерированного нейросетями. И зачастую отличить такой контент от контента, созданного человеком практически невозможно. Специалисты Национального исследовательского университета «Высшая школа экономики» (НИУ ВШЭ) создают приложение, которое, как утверждают его авторы, позволит без проблем определить, создан ли тот или иной текст человеком, или же это результат работы искусственного интеллекта. В НИУ заявили, их платформа будет универсальной, то есть она сможет «ловить» разные ИИ-модели, построенные на разной архитектуре.

Как пояснили разработчики, проблема существующих решений заключается в том, что они ориентируются на определённую архитектуру, иногда на две-три. Это делает их уязвимым к постоянно растущему числу ботов. Ситуация здесь усугубляется не только постоянно возрастающем количеством, но и усложнением алгоритмов работы.

«Наша разработка отличается от разработок конкурентов. Подавляющее большинство аналогичных проектов посвящено задаче идентификации конкретных архитектур генеративных языковых моделей (к примеру, ChatGPT). Это приводит к неизбежному устареванию таких наработок по мере развития инструментов генерации текстов и (или) возникновения новых типов ботов, а также вынуждает потенциальных потребителей использовать на практике сразу несколько моделей, ответственных за обнаружение ботов с различными архитектурами. Мы “ловим” всех ботов, а не только одного или нескольких, находящихся в нашем распоряжении», — рассказывает руководитель проекта Василий Громов, профессор департамента анализа данных и искусственного интеллекта факультета компьютерных наук НИУ ВШЭ.

Отечественная разработка базируется на большом числе математических знаний: теория хаотических динамических систем, топологический анализ данных, теория размерности, теория кластеризации (четкой и нечеткой), нейронные сети и так далее. Такой подход обеспечивает робастность платформы — это свойство модели сохранять своё качество работы при различных изменениях входных данных.

«Нами проведены широкомасштабные вычислительные эксперименты с использованием различных методов анализа данных и искусственного интеллекта, что позволило определить наборы характеристик, наиболее подходящих для различения пространств и траекторий ботов и людей, и разработать прототип программного обеспечения», — говорит Василий Громов.

В ближайшее время разработчики планируют начать массовое тестирование своего детища с использованием самых разных типов текстов: от художественных произведений до выпускных работ учащихся вузов.

Читайте на 123ru.net