World News in Spanish

Ricardo Baeza, Premio Nacional de Ciencias Aplicadas 2024: “La IA puede inventar cosas porque no está entrenada para decir ‘no sé'”

En 2023, Ricardo Baeza Yates le consultó por su nombre a Chat GPT. Un año antes, cuando esta famosa aplicación se encontraba en su versión 3.5, al realizar este mismo ejercicio, descubrió que aparecía erróneamente en una lista de científicos brasileños fallecidos en 2022. No obstante, con las actualizaciones periódicas, si bien esta información desapareció, una nueva llamó su atención: el chatboot de la empresa OpenAI decía que Baeza había ganado el Premio Nacional de Ciencias Aplicadas.

“En marzo del año pasado yo todavía no había ganado el premio. Ahora sí”, dice el reconocido académico y Doctor en Ciencias de la Computación de la Universidad de Waterloo (Ontario, Canadá), que se alzó con el más importante galardón nacional a raíz de sus investigaciones en el área de la computación, a la minería de datos, pero sobre todo en la discusión de la ética en torno al uso de la inteligencia artificial.

“El problema con estos sistemas es que pueden inventar cosas. Nunca te van a decir ‘no sé’ porque no están entrenados para decirte eso, sino para predecir algo que tenga que ver con lo que tú quieres saber, pero eso puede ser falso”, explicó Baeza sobre el uso actual de la IA en plataformas como la mencionada Chat GPT.

Entrevistado por la periodista Diana Porras, en el programa Educación en el Aire, el investigador aseguró que la inteligencia artificial “se está usando casi como si fuese una caja negra que no se entiende que es lo que hace y es más peligrosa por eso mismo”.

Ricardo Baeza-Yates, Premio Nacional de Ciencias Aplicadas y Tecnológicas 2024-

Y es justamente por este tipo de fallas en su desarrollo que el Doctor asegura que debería tener restricciones respecto de su uso. Por ejemplo, en el ámbito de la justicia, Baeza advierte que su principal peligro radica en que supone que los datos “pueden representar el problema que estamos tratando de resolver y la verdad que los datos siempre representan solamente parte del problema”.

“Mientras más complicado es el problema, los datos representan una parte más pequeña del problema. Por ejemplo, es muy difícil poner en datos el contexto social de una persona que cometió una falta judicial. Es muy difícil porque hay cosas que son relativas también, que dependen de las percepciones humanas”, explicó Baeza.

Para aterrizar esta idea, el también director de Investigación del Instituto de Inteligencia Artificial Experiencial de Northeastern University, comentó que hoy en día las instituciones bancarias están usando inteligencia artificial para decidir, por ejemplo, a quién le entregan o no un préstamo, un ámbito en el que asegura, se pueden cometer graves errores.

“Pueden ser de dos maneras: favoreciendo a personas dándoles préstamos cuando no son confiables o lo van a usar para acciones que no son buenas para la sociedad; o no se lo da a una persona que sí lo necesita, que lo va a considerar, y le termina afectando en su futuro financiero”, explica Baeza.

Frente a esto, el académico ha venido trabajando en contra de lo que denomina la “discriminación algorítmica”, a través del Observatorio Público para la Transparencia e Inclusión Algorítmica (OptIA), una organización de que busca impulsar mayores regulaciones frente a cualquier uso de este tipo de tecnologías y cómo entran en este escenario los grupos más vulnerables de la sociedad.

Por otro lado, el Premio Nacional de Ciencias Aplicadas 2024 puso énfasis en que espera que en el futuro se pueda alcanzar porcentajes más equitativos respecto de mujeres que estudian ciencias de la computación. “En escuelas hoy se ha pasado de 20% a 32% en el número de mujeres que estudian ingeniería, pero en computación sigue siendo bajo, así que hay que tratar de mejorar”, sentenció.

Читайте на 123ru.net