В США разработали нейронную сеть для борьбы с Deepfake
Из всех инструментов дополненной реальности, появившихся в последние годы, немногие вызвали такой же ажиотаж, как Deepfake. Эта технология позволяет любому создавать картинки или видеоролики, в которых одни изображения крайне убедительно накладываются на другие. Это применялось как с развлекательной целью, вроде замены лица Арнольда Шварценеггера на лицо Сильвестра Сталлоне в кадрах из фильма «Терминатор», так и в целях мошенничества. Злоумышленники создавали фотографии, угрожающие репутации знаменитостей, подставляли лица других людей в видеоролики эротического характера, а также придумывали поддельные новости.
В результате, пока одни придумывали всё больше и больше способов сделать эту технологию реалистичнее, другие пытались создать что-то, что поможет отличать реальные фото и видео от фейков.
В Калифорнийском университете Риверсайда команда исследователей разработала нейросеть, которая может определять поддельные изображения с высокой степенью точности. При этом её создатели надеются, что смогут обеспечить людям достаточно средств для борьбы с опасными подделками. Это не первый раз, когда исследователи пытаются решить проблему с Deepfake, но, возможно, одна из самых многообещающих попыток, совершённых в ходе этого противостояния.
Команда Калифорнийского университета анализировала большую базу данных видео, продолжительностью около 20 часов, снятых с 46 различных камер.
Затем они обучили нейронную сеть распознавать отличия. Как бы убедительно не выглядело фальшивое видео или фото для человека, алгоритм исследует их попиксельно для поиска элементов, которые были изменены.
В результате, пока одни придумывали всё больше и больше способов сделать эту технологию реалистичнее, другие пытались создать что-то, что поможет отличать реальные фото и видео от фейков.
В Калифорнийском университете Риверсайда команда исследователей разработала нейросеть, которая может определять поддельные изображения с высокой степенью точности. При этом её создатели надеются, что смогут обеспечить людям достаточно средств для борьбы с опасными подделками. Это не первый раз, когда исследователи пытаются решить проблему с Deepfake, но, возможно, одна из самых многообещающих попыток, совершённых в ходе этого противостояния.
«Многие существующие нейросети для определения фейков полагаются на такие визуальные факторы, как неправильные движения губ или странная поза головы. Тем не менее, мошеннические технологии становятся всё лучше, и делают всё более качественные подделки. Наша система анализирует пиксели в фото и видео для идентификации камеры, на которую всё было снято. Пиксели в поддельной части кадра будут отличаться от остальных», — сказал Брайан Хослер, исследователь проекта, в интервью изданию Digital Trends.Работа над проектом началась с эксперимента, в ходе которого планировалось выяснить, возможно ли создать алгоритм, который будет способен определить разницу между видео, снятым на разные устройства. Оказалось, что каждая камера снимает видео немного по-разному. Это не заметно для человеческого глаза, но пиксели, по сути, являются электронными отпечатками пальцев.
Команда Калифорнийского университета анализировала большую базу данных видео, продолжительностью около 20 часов, снятых с 46 различных камер.
Затем они обучили нейронную сеть распознавать отличия. Как бы убедительно не выглядело фальшивое видео или фото для человека, алгоритм исследует их попиксельно для поиска элементов, которые были изменены.
«Мы планируем выпустить приложение для всеобщего пользования, чтобы каждый мог определять фейки, попутно обучая нашу нейросеть», — говорит Хослер.Впрочем, впереди у разработчиков ещё много работы. Технологии Deepfake становятся только лучше, а это значит, что исследователи на стороне добра также не должны сидеть без дела. В ближайшем будущем необходимо разработать похожий алгоритм, но только для распознавания аудиозаписей, ведь и эту сферу мошенники активно изучают.