Newtral participa en un paper publicado por Nature Machine Learning sobre los modelos del lenguaje y los desafíos de la desinformación

El uso generalizado de los grandes modelos del lenguaje o large language models (LLMs) se ha convertido en un desafío para la desinformación. ChatGPT de OpenAI o Gemini de Google, por ejemplo, tienen una gran capacidad de ser útiles para varias tareas, pero también tienden a producir contenido falso, erróneo o engañoso a través de sus alucinaciones, planteando desafíos sobre su potencial para difundir desinformación. 

El CTO de Newtral, Rubén Míguez, explora junto a otros expertos los desafíos que esto plantea en un artículo científico recién publicado por Nature Machine Intelligence, una filial de la revista científica Nature, bajo el título Factuality challenges in the era of large language models and opportunities for fact-checking

  • Las «alucinaciones» en modelos de lenguaje pueden ocurrir por los datos de entrenamiento que se han utilizado para el diseño del modelo, una falta de comprensión real o la generalización de datos incorrectos sin verificar, entre otros motivos. 

Hoja de ruta. Los investigadores apuntan a que, a pesar de los problemas con la precisión factual, los modelos del lenguaje pueden ser útiles para varias subtareas de la verificación, y proponen seguir una hoja de ruta con cuatro elementos:

  1. Colaborar y trabajar de forma coordinada para prevenir una carrera armamentística entre la IA generativa y las herramientas de detección. El objetivo es “promover un desarrollo tecnológico transparente, constructivo y responsable”.
  2. Una regulación integral de la inteligencia artificial generativa para mitigar los daños derivados del uso de la tecnología, con especial foco en los periodistas que la utilicen y el etiquetado de anuncios generados con IA. 
  3. Fomentar la alfabetización en IA y sensibilizar a los consumidores digitales.
  4. Incluir información clara para los usuarios sobre el uso de estas tecnologías para aclarar los límites (por ejemplo, respecto a la veracidad) y los riesgos (como el tono de autoridad) de los LLMs. 

Soluciones. Además, los autores examinan las soluciones existentes para contrarrestar las alucinaciones y las imprecisiones generadas por los chatbots, así como las posibles perspectivas para el fact-checking. En el artículo han participado académicos e investigadores de 12 universidades de Estados Unidos, Europa, Asia y Oriente Medio, miembros de las organizaciones de fact-checking Full Fact, Pagella Politica y Newtral, y un experto de Meta.

Читайте на 123ru.net