FAIrLAC es un juego de palabras. En inglés fair significa justo, LAC se refiere a Latinoamérica y El Caribe y las mayúsculas en la A y la I se relacionan con las siglas de inteligencia artificial en inglés.
Así se denomina la iniciativa del Banco Interamericano de Desarrollo (BID) para promover el uso ético de esta tecnología, y Colombia, a través del Centro para la Cuarta Revolución Industrial (C4RI), fue elegido para ser epicentro de la conversación de los países de la Comunidad Andina de Naciones (Bolivia, Ecuador, Perú y Colombia).
Para hablar de su significado y la importancia de estos proyectos EL COLOMBIANO conversó con Cristina Gómez, senior de Inteligencia Artificial del Centro (ver Protagonista).
¿Por qué es relevante ser el hub del FaIrlAc?
“En esta iniciativa se promueve el uso adecuado, ético, responsable de la inteligencia artificial para el beneficio de la sociedad. Y el Centro venía trabajando en un proyecto sobre neutralidad de género en esta tecnología, así que activamos conversaciones con el BID y se define que Colombia será el hub para la región Andina para concentrar, articular y resaltar iniciativas que tengan que ver con el objetivo del fAIrLAC”.
¿Qué sigue en la agenda?
“La idea es hacer un plan de trabajo para identificar otras iniciativas en la región Andina que podamos resaltar y amplificar con la red de hubs del BID y de la red de C4RI. La región Andina se va a enfocar en la equidad de estas tecnologías”.
¿Qué se entiende por inteligencia artificial?
“Es una disciplina que busca darles capacidad de inteligencia humana a máquinas y es un término que está en constante evolución. La inteligencia va evolucionando en la medida en que la tecnología también lo hace. Por ejemplo, las aplicaciones que nos permiten movernos del punto A al punto B (Waze, Google Maps) eligiendo la mejor ruta; buscadores de internet (Google), las redes sociales, plataformas de películas que te sugieren nuevos títulos”.
¿Por qué es importante hablar de equidad de género en esta tecnología?
“Desde el año pasado, que se puso en práctica el Centro como Do Tank, es decir, un centro que hace proyectos, tomamos como referencia un análisis de la Organización para la Cooperación y el Desarrollo Económicos (Ocde) en el que se habla de unas trampas de Latinoamérica, una de ellas es la de inequidad y desde las tecnologías conocíamos alertas. Gartner estima que para 2022 el 85 % de los resultados de sistemas de IA van a generar salidas erróneas por sus sesgos, y uno de ellos, es de género (entendido de manera clásica, hombre vs. mujer).
Nos encontramos casos en los que sistemas de inteligencia artificial discriminan a las mujeres; este problema se articula con los Objetivos de Desarrollo Sostenible en los que hay un aspecto profundo de género”.
¿Por qué se dan sesgos?
“La inteligencia artificial hoy se da en un subconjunto que se llama aprendizaje de máquina (machine learning). Para que los sistemas funcionen necesitan datos, y estos se han recogido históricamente, el sistema aprende de ellos. Por ejemplo, en el caso de la tecnología son los hombres quienes primordialmente han trabajado en este sector y no las mujeres porque culturalmente hemos estado en otros asuntos, y esta es la información de la que aprende el sistema. Los datos son muestra de la realidad que llevamos y si esta tiene una carga histórica sesgada el sistema va a quedar en la misma situación”.
¿Con qué información o indicios se inicia este trabajo de neutralidad de género?
“Conocíamos que sistemas de reconocimiento facial que no identifican a las mujeres o las confunden, también casos como el de empresas tecnológicas que estaban haciendo contratación de personal y el sistema de inteligencia artificial estaba dejando por fuera a las mujeres y de los buscadores web, en los que hace unos años cuando ponías mujer latina o negra o asiática los primeros resultados que arrojaban eran sitios pornográficos, mientras que si ponías mujer europea o estadounidense arrojaba resultados de avances científicos, o unos muy distintos a los primeros”.
¿En qué consiste el proyecto?
“Con el proyecto queremos traer el problema en la región, entender este contexto sociocultural y cómo podemos solucionarlos o dar un aporte en este camino. La clave está en el contexto, lo que para mí puede se un escenario de discriminación, en otros países puede no serlo”.
¿Cuándo veremos resultados?
“En octubre y noviembre del año entrante, mientras tanto se van a realizar sesiones de trabajo de cocreación de cada una de las fases del proyecto. El pasado 14 de octubre se hizo el primer ejercicio, para identificar esos escenarios de discriminación y vamos a depurarlo y a tener un informe para final de este año con algunos de estos resultados, pero tendremos más ejercicios similares. Como hub debemos empezar la hoja de ruta para los proyectos representativos en cada uno de los países de la región andina del uso de la inteligencia artificial para la equidad”.