Новости по-русски

Мошенники начали использовать дипфейки для обмана россиян

Злоумышленники придумали новую схему мошенничества. С помощью искусственного интеллекта они могут послать близким и друзьям пользователей видео с «участием» жертвы, созданное нейросетью.

Дипфейки являются главной опасностью распространения средств видеофиксации, уверен директор по продуктам компании Ivideon Заур Абуталимов.

«Используя дипфейк, мошенники могут звонить родственникам или деловым партнерам человека по видеосвязи или создать ролик с участием копии этого человека для рассылки с целью шантажа. Такие подделки запросто могут спровоцировать буллинг, поскольку подкованный злоумышленник может поместить людей в нелепые, опасные или компрометирующие псевдосценарии», — рассказал Абуталимов в интервью «Известиям».

В свою очередь ведущий системный инженер Varonis Александр Веткол подчеркнул, что психологически люди проявляют больше доверия к другим, когда видят их. Это может создать специфические риски в той ситуации, когда речь идет о технологиях с использованием видео, заявил он.

Чтобы избежать вовлечения в подобную схему, эксперты советуют не оставлять изображения и видео со своим участием на подозрительных сайтах или ресурсах, которые не вызывают доверия.

Отметим, что согласно недавним подсчетам Сбербанка, ежемесячный финансовый ущерб россиянам от телефонного мошенничества оценивается в 3,5-5 млрд рублей.

 

Читайте на 123ru.net