Новости по-русски

Точки над ИИ: в Госдуме начали разработку закона о маркировке созданного нейросетями контента

В Госдуме начали разработку закона о маркировке контента, созданного с помощью искусственного интеллекта. Как сообщил член комитета по информационной политике Антон Немкин, без контроля распространения такой информации развитие ИИ может нести опасность. «Известия» выясняли, как будет работать нововведение и почему оно необходимо.

Разработка закона

В Госдуме начали разработку закона о маркировке контента, созданного нейросетями. Об этом сообщил член комитета Госдумы по информационной политике Антон Немкин.

Он отметил, что без контроля распространения информации развитие искусственного интеллекта (ИИ) в России может быть опасным.

«Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных», — сказал Немкин.

По словам депутата, маркировка может осуществляться при помощи графических или водяных знаков. Она должна выглядеть ненавязчиво, но при этом быть заметной читателю. Если закон примут, в будущем российские ИИ-сервисы обяжут автоматически маркировать сгенерированные тексты. Так что задуматься о технологии маркировки крупным компаниям стоит уже сейчас.

Какая экспертиза позволит распознать степень участия нейросети и человека в одном тексте, пока неясно. Однако Немкин предложил наделить новыми полномочиями Роскомнадзор: ведомство могло бы заниматься выявлением деструктивного контента, сгенерированного ИИ.

Необходимость закона

Как объясняет «Известиям» начальник отдела по информационной безопасности компании «Код безопасности» Алексей Коробченко, маркировка ИИ-контента имеет две главные цели.

— Во-первых, любому ИИ-сервису на данном этапе развития свойственны так называемые галлюцинации, то есть нейросети могут выдавать ложную информацию. Соответствующая маркировка должна дать понять пользователям, что данные сгенерированы искусственным интеллектом и их необходимо перепроверять, — рассказывает эксперт.

Во-вторых, возможности ИИ сегодня значительно выросли. Отличить видео, фото, не говоря уже про текст, сгенерированные нейросетью от созданных человеком практически нереально. И это дает широкий простор для обмана пользователей, манипуляции их мнением и так далее.

— Например, недобросовестные производители могут генерировать ИИ-ролики, рекламируя какой-либо товар. С помощью маркировки пользователи будут понимать, что возможности продукта в рекламе могут отличаться от действительности, — говорит Коробченко.

Механизм маркировки

Как именно будет исполняться новый закон в случае принятия, пока неизвестно. Но, по мнению Алексея Коробченко, вероятно, будет реализовано два основных механизма маркировки и контроля ИИ-контента. Первый — обязательство всех ИИ-сервисов автоматически маркировать контент, а второй — «ручной» контроль силами специалистов Роскомнадзора.

— По большому счету, такой принцип действует и при выявлении, например, мошеннических ресурсов: автоматические системы регуляторов прочесывают интернет, а в особых случаях проверку проводят специалисты, — говорит собеседник «Известий».

Еще один похожий пример — российский опыт по маркировке интернет-рекламы, не имеющий аналогов в мире, добавляет партнер Лиги цифровой экономики Александр Данилов. Участники рынка уже два года маркируют весь контент, создаваемый и публикуемый в интернете в рекламных целях.

— Здесь реализована как организационная, так и техническая платформа для взаимодействия всех участников, полностью цифровизованы процессы, связанные с маркировкой рекламы, а Роскомнадзор успешно справляется с административной функцией. На мой взгляд, все условия уже есть и для маркировки информации, созданной с использованием ИИ. Однако прежде всего необходимо определить какой тип контента, созданного с помощью ИИ, будет подлежать маркировке, — отмечает Данилов.

По этой причине, объясняет он, сначала необходимо описать и типизировать этот контент. Например, ответы различных чатов с технологией генеративных сетей (GPT) в интересах одного конкретного гражданина, возможно, и не требуется маркировать.

— Но если же создаваемый с использованием ИИ контент (видео, аудио, тексты) предназначается для массового распространения через интернет, то здесь маркировка вполне уместна. Она позволит урегулировать этические вопросы тиражирования информации, в том числе с использованием визуальных образов или голосов известных личностей, лидеров мнений, и сформирует ожидания у аудитории, для которой предназначается контент, — заключает Александр Данилов.

Важное нововведение

По мнению экспертов «Известий», необходимость в законе о маркировке контента, созданного нейросетями, назрела давно. Главная опасность его отсутствия заключается в том, что неконтролируемое распространение любого контента, не только созданного ИИ, может дезинформировать людей и дестабилизировать общество, считает Алексей Коробченко.

— Сейчас ИИ-сервисы доступны практически каждому, и при желании хактивисты или просто хулиганы могут распространять фейковый контент, который будет влиять на социальную обстановку. Кроме того, нейросети совершают фактические ошибки могут вводить пользователей в заблуждение, нести негативный эффект, например, панику, — говорит эксперт.

Главную пользу от нововведения, по его словам, получат именно пользователи сети — они будут знать, какие материалы созданы с помощью ИИ, и относиться к ним соответственно.

Кроме того, введение обязательной маркировки сможет повлиять и на уровень мошенничества и «психологических операций» с дипфейками.

Понятно, что хакеры высокой квалификации пользуются собственными ИИ-инструментами, однако если общедоступные ИИ-сервисы будут всегда маркировать свой контент, то различные хактивисты и хулиганы не смогут выдавать фейковые новости за настоящие и влиять на общество, — отмечает собеседник «Известий».

По словам руководителя ИТ-подразделения агентства «Полилог» Людмилы Богатыревой, Россия — не первая страна, которая инициирует законодательное регулирование ИИ-контента. Маркировка в виде водяных знаков для аудио и видеоконтента уже существует в Китае, странах Евросоюза и США.

— Но в рамках этого важно внимательно проработать, кто, как и в каких случаях будет маркировать контент. К примеру, это будет касаться только контента, распространяемого СМИ, или же используемого в личных сообщениях. Кто должен нести ответственность — тот, кто генерирует контент, или кто распространяет его. Все эти вопросы нужно аккуратно проработать, иначе данная инициатива как минимум «не взлетит», а как максимум — затормозит развитие технологий искусственного интеллекта в стране, — заключает собеседница «Известий».

Читайте на 123ru.net