World News

Según la AI Act los nuevos Llama 3.1 de Meta son un «riesgo sistémico». El problema son los TFLOPs

Según la AI Act los nuevos Llama 3.1 de Meta son un "riesgo sistémico". El problema son los TFLOPs thumbnail

Según la AI Act los nuevos Llama 3.1 de Meta son un "riesgo sistémico". El problema son los TFLOPs

La regulación europea para la inteligencia artificial, la AI Act, era aprobada en marzo de 2024 mientras los euroreguladores sacaban pecho. Thierry Breton, comisario europeo, publicaba meses antes un tuit polarizador, presumiendo de que Europa era el único continente que tenía una regulación sobre la IA.

El problema es que esa AI Act puede ser una barrera adicional más que deje atrás a Europa en la carrera por la inteligencia artificial. El ejemplo perfecto son los nuevos modelos LLama 3.1 de Meta.

Los modelos Llama 3 usan demasiados TFLOPS

En la documentación técnica de la familia de modelos Llama 3 —con los 3.1 incluidos—, Meta indica cuál es la «escala» de estos modelos:

«Entrenamos un modelo a una escala mucho mayor que los modelos Llama anteriores: nuestro modelo de lenguaje insignia fue preentrenado utilizando 3,8 × 10^25 FLOPs, casi 50 veces más que la versión más grande de Llama 2. En concreto, preentrenamos un modelo insignia con 405B parámetros entrenables en 15,6T tokens de texto».

Y precisamente esa potencia de cómputo utilizada para el entrenamiento de estos modelos es superior a la que la AI Act especifica para no considerarlos un riesgo sistémico. En la documentación sobre esta normativa se habla de las IA de propósito general (GPAI), y se especifica lo siguiente:

«Los modelos GPAI presentan riesgos sistémicos cuando la cantidad acumulada de cálculo utilizada para su formación es superior a 10^25 operaciones en coma flotante (FLOPs). Los proveedores deben notificar a la Comisión si su modelo cumple este criterio en el plazo de dos semanas. El proveedor puede presentar argumentos de que, a pesar de cumplir los criterios, su modelo no presenta riesgos sistémicos. La Comisión puede decidir por sí misma, o a través de una alerta cualificada del grupo científico de expertos independientes, que un modelo tiene capacidades de alto impacto, lo que lo convierte en sistémico».

Ese límite impuesto por la AI Act es casi cuadruplicado por el sistema utilizado para entrenar los modelos Llama 3, así que a priori eso los calificaría como modelos que son un riesgo sistémico.

Eso, cuidado, no significa que se prohíba su uso, pero sí que los proveedores deben ofrecer garantías de que no plantean una amenaza para los ciudadanos y la sociedad.

¿Cómo de potente es una IA demasiado potente?

Las intenciones y objetivos de la Unión Europea a la hora de regular la inteligencia artificial son razonables y miran a largo plazo, mientras que las empresas tecnológicas suelen estar mucho más centradas en el corto plazo y en seguir liderando el mercado.

Las perspectivas son muy distintas y provocan este tipo de conflictos, y el frenético avance de la tecnología en general y de la IA en particular hace que la regulación corra el peligro de llegar tarde y mal… o de quedarse obsoleta antes incluso de llegar a ser efectiva.

Es un poco lo que parece estar ocurriendo con la AI Act, que con ese requisito limita a los proveedores y a quienes tratan de innovar en este campo. Aquí hay una loable intención de prevenir en lugar de curar, pero también un problema: que no sabemos cómo de potente es una IA demasiado potente, y tampoco si al ser demasiado potente realmente plantea un riesgo.

La Unión Europea, eso sí, también sabe que esa evolución tecnológica es frenética. En su sección de preguntas y respuestas en regulación de la IA, sus responsables se preguntan si esta ley está preparada para el futuro, y dejan claro que la AI Act está sujeta a futuras revisiones para adaptarse a los nuevos tiempos con atención específica a modificar esos límites de potencia de entrenamiento medidos en FLOPS:

«La Ley de IA puede modificarse mediante actos delegados y de ejecución, y en particular para actualizar el umbral de FLOPS (acto delegado), añadir criterios para clasificar los modelos de sistemas de inteligencia artificial de uso general en la categoría de riesgo sistémico (acto delegado) y modificar las modalidades de creación de espacios controlados de pruebas y elementos del plan de ensayos en condiciones reales (actos de ejecución)».

Estamos pues ante una situación compleja para los reguladores y los proveedores. El debate sobre regulación frente a innovación sigue presente, pero de momento, como hemos visto en otros casos, Europa sale perdiendo.

Imagen | Simoneabba con Midjourney

En Xataka | Japón ya tiene su propia “Her”: así es la IA con la que algunas personas están teniendo una relación sentimental


La noticia

Según la AI Act los nuevos Llama 3.1 de Meta son un «riesgo sistémico». El problema son los TFLOPs

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Читайте на 123ru.net