Угроза имитации: как в России защищаются от дипфейков?

Как пишет «Коммерсантъ», россияне все чаще используют технологии, позволяющие синтезировать внешность и голос живого человека. Легитимное применение нейросетей помогает воссоздать на экране ушедших актеров, например, Юрия Никулина в фильме «Манюня: Приключения в Москве». В то же время технологии используют и мошенники. Они распространять фейковые видео с участием знаменитостей, чтобы скомпрометировать их. Какими законами сейчас регулируется создание и использование дипфейков? Что такое «внешность человека» и «голос человека» с точки зрения российского права?На эти и другие вопросы ответила изданию «Ъ» старший консультант Алиса ЕрёминаКакими законами сейчас регулируется создание и использование дипфейков?На данный момент «дипфейк», несмотря на фактическую широкую распространённость, понятие довольно новое для российского законодательства. Сейчас его упоминание можно встретить только в планирующемся к внесению законопроекте, направленном, как раз, на установление ответственности за совершение преступлений с дипфейками. Но пока специальное регулирование отсутствует, к дипфейкам, в целом, можно применять некоторые общие нормы.Сам по себе, дипфейк — это технология с использованием ИИ для создания реалистичных имитаций изображения и голоса. Исходя из этого, к дипфейкам можно применить ст. 152.1 ГК РФ, которая распространяется на любые изображения гражданина, и запрещает их использование без его согласия.Учитывая, что дипфейки часто выступают инструментом для осуществления незаконных действий, например, при производстве видео-контента с участием определенных лиц, или при создании фейковых новостей для целей подрыва деловой репутации, данная статья может стать основной для защиты интересов лиц, которые столкнулись с собственными дипфейками.Кроме того, дипфейк может быть рассмотрен как комбинация биометрических данных человека, что позволяет применить положения 152-ФЗ «О персональных...

Читайте на 123ru.net