¿No podré utilizar ChatGPT? ¿Me quedaré sin las novedades de Apple?: claves de la ley de IA de la UE, que entra hoy en vigor
Pese a que se prometió que entraría en vigor antes de verano, finalmente hemos tenido que esperar a este 1 agosto para que se pusiera en marcha la ley de inteligencia artificial (IA) de la Unión Europea , la primera del mundo. La norma limita la comercialización y el uso de estas tecnologías en base a sus riesgos. En líneas generales, los 'afectados' de los cambios serán las empresas desarrolladoras , porque se pretende que fomenten un desarrollo ético; pero los efectos serán para los consumidores, porque la UE busca proteger los derechos fundamentales de los ciudadanos. Vamos, que la IA sea segura y no nos destruya, porque sus riesgos no son pocos. Para empezar, la normativa va a dividir todas las IA que se comercialicen, en cuatro categorías: riesgo inaceptable, de alto riesgo, riesgo limitado, y riesgo mínimo . Cada categoría tendrá sus propias normas, pero todas deberán estar supervisadas siempre por personas, en lugar de por la automatización, para evitar riesgos. Algunos sistemas (los de riesgo inaceptable), estarán prohibidos porque contradicen los valores de la UE, como son los derechos a la no discriminación, la protección de datos o la privacidad. Los primeros sistemas en caer son aquellos que capturan imágenes de rostros de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Así como aquellos que permiten realizar deepfakes de carácter sexual . También se prohíbe el reconocimiento de emociones en el lugar de trabajo y en las escuelas, así como sistemas de 'puntuación' de las personas en función de su comportamiento o características, y aquellas IA que manipulen el comportamiento humano o explote las vulnerabilidades de las personas. No obstante, la normativa permite excepciones . Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal. Vamos, que solo estarán disponibles para equipos de seguridad (emergencias, policía, ejército) o por motivos judiciales. Por último, se añaden requisitos de transparencia, en tanto a que los responsables de los sistemas deben pasar una serie de variables para asegurar que no engañan al consumir con su producto. Por ejemplo, que les hagan creer que interactúan con personas reales o con contenidos creados por ella cuando el usuario habla con un chatbot. Habrá multas para aquellas desarrolladoras que no cumplan con la normativa. Si no lo hacen, se contemplan sanciones de entre el 1 y el 7% de su volumen de negociones global. En caso de grandes tecnológicas, pueden ser de 7,5 millones de euros o hasta 35 millones de euros . - Entonces, ¿Apple, Google, Meta... tendrán que acatar la ley pese a que no sean empresas europeas? Sí, ninguna de ellas se librará de la ley. Las normas se aplican a los proveedores de sistemas de IA que se comercialicen dentro de la UE, con independencia de su origen. - ¿Es el adiós a ChatGPT? No, para nada. Tanto ChatGPT como otras IA generativas están incluidas en la UE dentro de las categorías de riesgo limitado o mínimo. Sin embargo, si que tendrán que cumplir nuevas obligaciones, como informar siempre a los usuarios de que el contenido ha sido generado por IA, diseñar los modelos para evitar que generen contenidos ilegales, o publicar un resumen de los datos protegidos por copyright que han usado para su entrenamiento. - Y yo como usuario europeo, ¿voy a perder el acceso a futuras IA? Esto está por ver. Por el momento, Apple ya ha informado que su apuesta por la inteligencia artificial, Apple Intelligence , no llegará a Europa a la par que en el resto de zonas por esta regulación. Lo mismo ocurre con Meta, que ya avisó que no lanzará sus herramientas más potentes dentro de la Unión Europea. Cabe recordar que, en el caso de la compañía de la manzana, a finales de junio la UE acusó a la compañía de incumplir esta normativa al no permitir «que los desarrolladores de aplicaciones dirijan libremente a los consumidores hacia canales alternativos para ofertas y contenidos». La empresa podría llegar a ser multada por ello con el 10% de sus ingresos anuales globales. - ¿Qué ocurre al final con el reconocimiento facial?¿Un centro comercial podrá escanearme la cara cuando vaya de compras? En líneas general no está permitido, salvo en contadas ocasiones. La UE ha apostado por permitir el uso de reconocimiento facial en espacios públicos siempre bajo aprobación judicial y para casos muy concretos, como puede ser la lucha contra el terrorismo o la búsqueda de sospechosos de haber cometido algún delito grave. Tras su entrada en vigor este 1 de agosto, la ley será de plena aplicación 24 meses después, con excepción de las prohibiciones prácticas, que se aplicarán seis meses después de la fecha de entrada en vigor, es decir, en febrero de 2025. Algunas comenzarán antes, como aquellas que deberán aplicar los modelos de uso generalista (ChatGPT, Gemini...) que será en agosto de 2025. Un año después, en agosto de 2026, se aplicará la ley de manera general, salvo en algunas disposiciones. Las últimas serán las obligaciones para los sistemas de alto riesgo, que comenzarán a aplicarse 36 meses después, en agosto de 2027.