Новости по-русски

Губа поплыла и шесть пальцев. Нейроблогеры дурят пользователей

АиФ 

В жизни человечества наступил новый этап — искусственный интеллект распространяется все шире. Он, по задумке разработчиков, призван облегчить жизнь людей. Но, кажется, что современные технологии вышли далеко за рамки разумного... Пользователи Сети стали активно жаловаться не только на созданный нейросетью контент, который очень сложно отличить от реальности, но и нейроблогеров. Как они выглядят, чем опасны и почему их так сложно вычислить — в материале aif.ru.

Инструмент мошенников

В запрещенной в РФ социальной сети завирусилось видео блогера Кариши Ри. На нем девушка смотрит короткий ролик другой блондинки, которая танцует под известную песню. И все бы ничего, таких видео в Сети миллионы, но что-то Карине показалось странным.

«Я думала, что у меня синдром главного героя, потому что в этой женщине я четко вижу себя», — сказала блогер.

Оказалось, интуиция Карину не подвела. На видео действительно была она, только с другой внешностью. Точно такой же ролик, где совпадают движения, эмоции и даже мимика, Карина нашла в своем профиле. Как такое возможно? Очень просто. Сейчас на просторах Сети есть сотни приложений, сайтов и ботов, которые могут на основе одного только фото или видео, соединить любые движения, внешность, голос, речь и эмоции. С одной стороны — это очень интересно. Ведь, так можно «оживить» старые фотографии бабушек, дедушек или снимки из молодости. Но с другой — современный, сгенерированный нейросетью контент стал настолько правдоподобным, что его почти невозможно отличить от реальности. И иногда этим методом пользуются даже мошенники.

Еще один обсуждаемый конфликт произошел в Москве. Житель столицы планирует судиться с нейроблогером, который также использовал личность москвича. Но в этом случае не для записи безобидных «танцулек», а для продажи роликов фут-фетишистам — людям, которые получают удовльствие от вида голых ног.

На кадрах мужчина якобы то поднимает голые стопы ног на камеру и несколько секунд просто двигает пальцами, то снимает крупным планом дырявые носки... Причем узнал он о создаваемых роликах через комментарии. Сначала под его постами стали появляться записи иностранцев, которые предлагали заплатить деньги за «индивидуальные» снимки ног, а позже написал пострадавшему и сам автор сгенерированных видео.

Обманули и чиновников

Обманывают в Сети и с помощью генерации голоса. Мошенники берут за основу личные видео из соцсетей, либо взламывают аккаунты и используют голосовые сообщения. Затем собирают аудиозапись с необходимым им посылом и отправляют будущим жертвам.

Такой случай произошел в 2024 году с мэром Березовского Евгением Писцовым. От его имени мошенники звонили и отправляли сообщения, где фото, голос и даже контакт в телефоне полностью соответствовали данным чиновника. Обращались обманщики в основном к коллегам Писцова, чтобы «войти в доверие» и выманить деньги.

«При входящем звонке вы можете не только увидеть надпись на экране с моими Ф. И. О., но и услышать "мой" голос. Всякий разговор с мошенниками, с чего бы он ни начинался, заканчивается одним и тем же — желанием залезть к вам "в карман"», — писал на свой странице мэр.

Еще лживые программисты баловались с дипфейками — материалами, где с помощью нейросети объединяли видео и голос. Использовали личности разных людей, чтобы влиять на их родственников, друзей, знакомых и все так же добывать деньги. Но были и безобидные варианты контента. Например, в Сети часто появляются ролики, где министры выступают со странными предложениями, а звезды снимают видео, несвойственные их жизни. К примеру, известный американский актер Леонардо Ди Каприо на Красной площади передает на русском языке привет маме.

«Я думаю, что это путь в никуда. Потому что качество сгенерированного материала становится с каждым днем все лучше и лучше. А люди это принимают, подписываются, следят за искусственно сделанными роликами. Причем, если молодое поколение еще и может понять, что это обман, то дети и взрослые легко могут поверить. Как отличить сгенерированный материал от реального? Это, конечно, непросто. Но если присмотреться, то обычно у таких фото или видео нереальная внешность, слишком плавные движения, голос с неправильной интонацией и ошибки в произнесении слов. Кроме того, иногда можно заметить деформацию конечностей», — рассказал Алексей Курочкин, эксперт по кибербезопасности.

Слишком идеальные

Корреспондент aif.ru и сам лично находил подобные ролики в Сети. Вот, например, лыжник мчит на скорости по снежному склону и вдруг, не успев затормозить, влетает в шале. Сперва от просмотра мурашки и удивление. Но потом, пересмотрев кадры еще раз пять, начинаешь замечать странные совпадения. Например, откуда на середине склона прямо на трассе появился стеклянный ресторан? А почему панорамные окна разбились раньше, чем в них въехал спортсмен? Да и как-то странно разлетелись осклоки. И тут понимаешь, что это обман.

Нашли мы и тех самых нейроблогеров. Например, аккаунты с названиями Дуся, Альбина и Марк. К счастью, реальные авторы этого цифрового контента подписывают в начале странички, что материалы созданы искусственным интеллектом. Но когда смотришь профили, становится страшно. Ведь, блогеры публикуют не просто видео или фото, а историю своей «жизни», которой хочется верить. Якобы снимки из детства, фотографии родителей, обед в собственной квартире, путь к похудению, вечеринку с друзьями и многое другое. Покажем несколько картинок, чтобы рассмотрели и вы.

Их видео и фото очень реалистичны. Но присмотревшись получше, начинаешь замечать, что иногда речь не сходится с движением губ, появляются пальцы странной формы, меняются ногти, на кадрах слишком идеальная кожа, волосы, глаза. Такого просто не существует в жизни.

«Мой основной посыл не в том, что воруют мой контент и используют в своих целях, а в том, что люди уже не различают нейросети от реальных людей. Я ничего не имею против ИИ-блогеров, кроме того, что они создают какие-то нереальные стандарты красоты. У них идеальная внешность, идеальная одежда, идеальные волосы, все у них идеальное. Я искренне убеждена, что такой контент должен помечаться, дабы люди видели, что это ИИ, и выбирали смотреть ли его им, верить ли этому человеку. Придет время, когда вы увидите, что ваш любимый блогер говорит: "Братишка, перейди по этой ссылке" или "Зайди, я тут делаю розыгрыш", — и просто вас обманут. И все потому, что это будет ИИ, а вы уже не отличите его от реального блогера», — дополнила блогер Карина Ри.

Читайте на сайте