La IA necesita la supervisión de la ONU
Muchos científicos y líderes tecnológicos han advertido sobre la inteligencia artificial (IA) en los últimos años y emitido terribles prevenciones que no se habían escuchado desde el advenimiento de la era nuclear.
Elon Musk, por ejemplo, afirmó que “la IA es mucho más peligrosa que las armas nucleares”, lo cual lo llevó a formular una pregunta pertinente: “¿Por qué no tenemos supervisión regulatoria?”. Y agregó: “Esto es una locura”.
El difunto Stephen Hawking expresó una observación similar: “A menos que aprendamos a prepararnos y evitar los riesgos potenciales, la IA podría ser el peor evento en la historia de nuestra civilización. Trae peligros, como poderosas armas autónomas o nuevas formas para que unos pocos opriman a la mayoría”.
Dadas las consecuencias potencialmente catastróficas de una inteligencia artificial no controlada, existe una clara necesidad de barreras internacionales para garantizar que esta tecnología emergente (más exactamente llamada sistemas basados en datos) sirva al bien común. Específicamente, eso significa garantizar que los derechos humanos se respeten en todo el mundo, incluso en línea.
Derechos humanos en la era de la IA
Con ese fin, los gobiernos deberían introducir regulaciones que promuevan sistemas basados en datos que busquen proteger a los impotentes de los poderosos, garantizando que los derechos humanos sean respetados, protegidos y reconocidos durante todo el ciclo de vida de dichos sistemas, incluido el diseño, el desarrollo, la producción, la distribución y el uso.
Igualmente fundamental es que la Organización de las Naciones Unidas (ONU) establezca urgentemente una Agencia Internacional de Sistemas Basados en Datos (IDA, por sus siglas en inglés), un organismo de vigilancia global que promueva el uso seguro, sostenible y pacífico de estas tecnologías, y garantice que se respeten los derechos humanos y fomente la cooperación en el campo.
También tendría autoridad regulatoria para ayudar a determinar la aprobación en el mercado de productos de IA. Dadas las similitudes entre los sistemas basados en datos y las tecnologías nucleares, el Organismo Internacional de Energía Atómica (OIEA) sería el mejor modelo para una institución de este tipo, sobre todo porque es una de las pocas dependencias de la ONU con “dientes”.
El éxito del OIEA ha demostrado que somos capaces de actuar con cautela y prohibir la búsqueda ciega de avances tecnológicos cuando el futuro de la humanidad y del planeta está en juego. Después de que los bombardeos de Hiroshima y Nagasaki revelaron las devastadoras consecuencias humanitarias de la guerra nuclear, se restringieron la investigación y el desarrollo en el campo de la tecnología nuclear para evitar resultados aún peores. Esto fue posible gracias a un régimen internacional (el OIEA) con fuertes mecanismos de aplicación.
Tratado internacional sobre IA
Un número creciente de expertos de todo el planeta ha pedido el establecimiento de una IDA y apoyado la creación de sistemas basados en datos y fundamentados en el respeto de los derechos humanos.
The Elders, grupo independiente de líderes globales fundado por Nelson Mandela, reconoce los enormes riesgos de la IA y la necesidad de que una agencia internacional como el OIEA “gestione estas poderosas tecnologías dentro de protocolos de seguridad sólidos” y garantice que se “utilicen” de manera consistente con el derecho internacional y los tratados de derechos humanos.
En consecuencia, alientan a los países a presentar una solicitud a la Asamblea General de la ONU para que la Comisión de Derecho Internacional redacte un tratado internacional que establezca una nueva agencia de seguridad de la IA.
Entre los partidarios influyentes de un marco regulatorio jurídicamente vinculante para la IA se encuentra Sam Altman, director ejecutivo de OpenAI, cuyo lanzamiento público de ChatGPT a finales del 2022 dio comienzo a la “carrera armamentista” de la IA.
El año pasado, Altman pidió una autoridad internacional que pueda, entre otras cosas, “inspeccionar sistemas, exigir auditorías, comprobar el cumplimiento de las normas de seguridad e imponer restricciones a los grados de ejecución y niveles de seguridad”.
Incluso el papa Francisco ha hecho énfasis en la necesidad de establecer una institución multilateral que examine las cuestiones éticas que surgen de la IA y regule su desarrollo y uso mediante “un tratado internacional vinculante”.
Protección en línea
La ONU, por su parte, ha resaltado la importancia de promover y proteger los derechos humanos en los sistemas basados en datos. En julio del 2023, el Consejo de Derechos Humanos adoptó por unanimidad una resolución sobre “tecnologías digitales nuevas y emergentes y derechos humanos”, que señala que estas “pueden carecer de una regulación adecuada” y destacó la necesidad de “medidas para prevenir, mitigar y remediar impactos adversos... sobre los derechos humanos”.
Con ese fin, la resolución exige el establecimiento de marcos para las evaluaciones de impacto, el ejercicio de la debida diligencia y la garantía de recursos eficaces, supervisión humana y responsabilidad legal.
Más recientemente, en marzo, la Asamblea General de la ONU adoptó por unánimemente una resolución sobre “aprovechar las oportunidades que brindan los sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”.
Esta histórica resolución reconoce que “los mismos derechos que las personas tienen fuera de línea también deben protegerse en línea, incluso durante todo el ciclo de vida de los sistemas de inteligencia artificial”.
Ahora que la comunidad internacional ha reconocido el imperativo de proteger los derechos humanos en sistemas basados en datos, el siguiente paso es obvio. La ONU debe traducir la aceptación global en acción mediante el establecimiento de una IDA.
Peter G. Kirchschläger es profesor de Ética y director del Instituto de Ética Social ISE de la Universidad de Lucerna, y profesor invitado en el Centro de Inteligencia Artificial de la ETH Zúrich.
© Project Syndicate 1995–2024