World News in Spanish

La Universidad de Granada diseña un sistema para averiguar si una grabación de voz es real o se ha generado mediante IA

Abc.es 
Desinformación, noticias falsas (o fake news, para los más anglófilos), mal uso de la Inteligencia Artificial... Los avances tecnológicos necesitan de herramientas para garantizar un uso adecuado. Y es el propósito que ha movido a investigadores de la Universidad de Granada para desarrollar un sistema que permite saber si un audio de voz es real está generado mediante algoritmos. El estudio, que ha sido presentado este 29 de julio, ha corrido a cargo de expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, que han diseñado un mecanismo pionero en el mundo que permite discernir entre lo real y lo creado por Inteligencia Artificial. Entienden los investigadores que será de gran utilidad para combatir las fake news. En la presentación han participado los investigadores de la UGR Zoraida Callejas, David Griol y Daniel Calderón , expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, y el rector Pedro Mercado. El estudio parte de la base de que los avances en el uso de redes neuronales profundas para la síntesis de audio están permitiendo obtener voces sintéticas (generadas mediante IA) cada vez más realistas. Esto, resaltan, tiene grandes ventajas , pues permite dotar de voces más inteligibles a los sistemas automáticos (por ejemplo, lectores de texto, asistentes virtuales, robots…), así como controlar sus características, haciéndolas más expresivas y diversas (con aplicaciones por ejemplo en la producción de contenido multimedia). Sin embargo, la síntesis de habla también se puede utilizar para crear o manipular grabaciones de audio para fines maliciosos, como la suplantación de identidad en estafas telefónicas o la generación de noticias falsas. Hasta ahora, el audio ha sido un problema menor en las redacciones en comparación con otros tipos de engaños, como las fotografías o los vídeos. Sin embargo, en los últimos dos años está ganando terreno, «por lo que es preciso contar con herramientas que ayuden a la detección de audios falsos y puedan servir a los periodistas como una nueva fuente para la verificación de noticias «, han resaltado los especialistas. La investigación, dirigida por los profesores Zoraida Callejas y David Griol se ha realizado en el contexto de la Cátedra RTVE-UGR , en la que ambos investigadores participan junto con RTVE y la empresa Monoceros Labs. Las líneas de investigación se han aplicado en este caso a la verificación de audios para combatir la desinformación. «Hemos generado una herramienta que integra soluciones propias y de terceros para discernir si un audio es real o está generado con algoritmos de inteligencia artificial«, han explicado los investigadores, que añaden que una de las novedades es que no sólo integra modelos generales, sino también modelos específicos generados en la UGR »para voces de personalidades que son objetivo frecuente de desinformación ». Los científicos han puesto como ejemplo voces clonadas mediante técnicas de IA para la conversión y clonación de voz de Monoceros pertenecientes al Rey Felipe VI ; el presidente del Gobierno, Pedro Sánchez, o la vicepresidenta Yolanda Díaz . «Nuestro objetivo no es generar estas voces sintéticas de manera artificial, sino entrenar a nuestra IA mediante estas voces generadas por nosotros para que así el sistema pueda identificar si una voz es falsa o no con una alta precisión», han destacado. Actualmente se trabaja para ir más allá de la verificación y desarrollar herramientas para los periodistas basadas en IA conversacional , que proporcionen interactividad, accesibilidad y personalización de contenidos informativos.

Читайте на 123ru.net