Правозащитник Шлыков рассказал об опасности дипфейков
Существование социальных сетей и искусственного интеллекта (ИИ) серьезно упростило создание и распространение контента, сведя стоимость этих действий фактически до нуля. Председатель общероссийского общественного движения "Гражданский комитет России", экс-сотрудник спецподразделения МВД России, правозащитник Артур Шлыков рассказал, что это в полной мере относится как к безобидным мемам, так и к опасным фейкам, способным повлиять на события в реальном мире.
Подчеркну сразу, что я ни в коем случае не пытаюсь демонизировать ИИ. Это интересная технология, а главное – полезная во многих отраслях. И проблема не в ней, а в том, кто ее использует. Например, если ИИ попадает в руки злоумышленников или тех, кто намерено распространяет дезинформацию в интернете, увы, эта прорывная технология становится опасной. С ее помощью злоумышленникам становится проще совершать противоправные действия.
К примеру, раньше для создания фейковой новости человеку нужно было придумать тему и написать текст вручную. А чтобы ложь получилась еще более убедительной, нужно обладать минимальными познаниями в предмете или уметь создавать видимость этого. Нейросеть убирает эти требования и позволяет генерировать сразу несколько статей по одному запросу. А ее обширная база данных обеспечивает убедительность и соответствие любому заданному стилю вплоть до того, что даже профессионал не всегда способен распознать подвох.
Тем не менее тексты – серьезная, но не основная проблема. Дело в том, что возможности ИИ позволяют подделывать визуальный контент, который долгое время являлся гарантом достоверности. К примеру, видео можно представлять в качестве доказательства в суде. Разумеется, есть много процессуальных моментов, но такой материал так или иначе может повлиять на исход дела.
Те, кто не особенно внимательно следит за новостями про ИИ, наверняка лишь рассмеются, вспомнив жующего спагетти голливудского актера Уилла Смита. Спешу огорчить – это качество роликов уже давно не актуально. То, что сейчас создает нейросеть, уже легко можно спутать с реальностью. Как показало исследование компании HarrisX, в попытках определить сгенерированный ролик люди ошибались в 5 из 8 случаев. Другими словами, ошибку допустили больше половины респондентов.
Злоумышленники всегда умели подстраивать свои мошеннические схемы под текущие обстоятельства и максимально пользоваться преимуществами новых технологий. ИИ не стал исключением. Он уже очень активно используется для массового создания аудиодипфейков. К примеру, сотрудник крупной компании может получить звонок в мессенджере от "гендиректора" с просьбой провести платеж. Разумеется, деньги растворятся в неизвестном направлении.
Особенно опасно использование средств создания фейков в политическом контексте. В этом уже убедился специалист по дипфейкам из Индии Дивьендра Сингх Джадун, к которому во время выборов обращались сотни политиков. Многие из них просили наложить лицо конкурента на порнографическое изображение и подделать аудиозапись выступления своего соперника.
В целом способы обмана и создания фейков будут совершенствоваться вместе с развитием технологий. Увы, этот процесс неизбежен. Но это не означает, что лучшим выходом из ситуации является бездействие.
Напомню, что Россия продолжает находиться под беспрецедентным информационным давлением. И наша страна неизбежно становится одним из полигонов для обкатки новых технологий создания фейков, поэтому занимать выжидательную позицию однозначно не стоит. В России это прекрасно понимают. Например, власти уже обсуждают возможность создания единой платформы для выявления недостоверной информации. Помимо этого, в правовое поле планируется официально ввести термин "дипфейк".
Кроме того, в 2022 году АНО "Диалог" запустил фактчекинговый сервис "Лапша Медиа". С его помощью можно проверить информацию на правдивость. Также на сайте проекта есть чат-бот, база фейков и образовательный контент по цифровой грамотности. Разумеется, работы предстоит много, но иначе никак. Для нашего государства важно не оставлять без внимания фейки и средства для их создания и распространения.