x
language COL arrow_drop_down
Generación — Edición El Cambio
Cerrar
Generación

Revista Generación

Edición
EL ENCARGO INEVITABLE

En este número nos embarcamos a explorar la forma en que miramos la política, casi siempre como un duelo entre izquierda y derecha, y cómo está cambiando la geopolítica del poder global. Y nos preguntamos por nuestras relaciones con los animales, al tiempo que reflexionamos sobre las representaciones de series como Griselda, el cine hecho por mujeres y los nuevos espacios para el arte que se abren en Medellín.

  • Los algoritmos están en la vida cotidiana: le sugieren qué ver en las redes y las plataformas. Ilustración MidJourney-@ezd03517
    Los algoritmos están en la vida cotidiana: le sugieren qué ver en las redes y las plataformas. Ilustración MidJourney-@ezd03517

Inteligencia artificial en la vida cotidiana: las cajas negras que ya estaban aquí

La Inteligencia Artificial está en la vida cotidiana, y aunque ahora hay una explosión, hay aplicaciones que estaban desde hace rato. El algoritmo, por ejemplo, ese que le sugiere lo que ve en redes.

José M. Tomasena | Publicado

Hace unas semanas tropecé por los designios algorítmicos de TikTok con un video de un gurú que hablaba de sus exnovias con grosero desapego. Por curiosidad sociológica quise saber quién era, de dónde venía su misoginia, si las barbaridades que decía tenían alguna lógica, por qué acumulaba likes. A los dos minutos tuve suficiente, pero no pude quitármelo de encima: TikTok había entendido que a mí me interesaban los gurús misóginos, así es que no solo me ofreció más clips del susodicho, sino que comenzó a sondear mi interés por clips de otros hombres indignados por los avances del feminismo y por el supuesto giro woke de la cultura.

Leer más: Los retos de la Inteligencia Artificial: ¿esa foto sí es real o es ficticia?

El algoritmo de recomendación de TikTok (aunque podría haber sido de Instagram, YouTube o cualquier otra plataforma) interpretó mi interés a partir de una variable matemática: el tiempo que permanecí viendo un video. Lo que no era capaz de entender era por qué lo había visto.

Los momentos de desajuste como este son una oportunidad privilegiada para reconocer que toda tecnología es una “caja negra”, como decía Bruno Latour, el filósofo de la tecnología recientemente fallecido. Todos los días usamos diferentes tipos de tecnologías: un coche, un proyector, una pluma bic, el computador o celular en el que usted me está leyendo. En el ejemplo que estaba relatando, el algoritmo de recomendación de TikTok, que es el más sofisticado que conozco.

Las tecnologías se “cajanegrizan” porque no las notamos cuando funcionan. Son algo naturalizado, obvio. Pero cuando algo deja de funcionar (o funciona mal) descubrimos que eso que dábamos por sentado es en realidad un ensamblaje complejo de actores tecnológicos, institucionales, humanos, que hacen que nuestra vida funcione. Podríamos pensar en todos los ensamblajes que saltaron por los aires cuando un diminuto pequeño virus se esparció por nuestro planeta en la primavera de 2020.

Para volver a mi historia en TikTok, el hecho de que la plataforma malinterprete de vez en cuando mis intereses solo revela su funcionamiento habitual: es una máquina que aprende de los datos de mi consumo (qué veo, durante cuánto tiempo, qué me gusta, qué comparto), lo compara con perfiles de otros usuarios y me devuelve lo que podría gustarme. Normalmente acierta. Por eso es una caja negra. Me parece obvio. Tan obvio que dejo de verlo.

La explosión tecnológica (y mediática) que estamos viviendo con la aparición de nuevas tecnologías de Inteligencia Artificial como GPT, Stable Diffusion, Dall-E o Midjourney nos ha sacudido por su novedad y su alcance. Es verdad: parece que somos testigos de sistemas que son capaces de hacer cosas que hasta hace poco parecían ciencia ficción. Esta explosión presenta la oportunidad de descubrir otras cajas negras que ya estaban aquí sin que nos diéramos cuenta.

Un rápido inventario: busco un restaurante en Google Maps y sabe que vivo en Barcelona y que me gustan las pizzas y los tacos. Doy una instrucción a Siri, Alexa, Cortana o Google Assistant y reconoce mi acento de Guadalajara (tan diferente del de un antioqueño, un andaluz o un rioplatense). Facebook, Instagram, YouTube o Netflix seleccionan, jerarquizan y muestran el contenido que podría interesarme más (y que aumenta sus métricas de retención). Google completa mis búsquedas antes de que yo termine de teclearlas y cuando me equivoco me pregunta con elegancia: “¿Quisiste decir...? E incluso el procesador de texto en el que escribo esta columna me sugiere cómo terminar la frase.

¿Cómo funcionan estos sistemas? Detrás de cada uno ha habido enormes desafíos tecno-científicos, económicos, legales, empresariales, éticos encajonados en negro detrás de cada clic. Todos se basan en alguna forma de inteligencia artificial, ya sea procesamiento de lenguaje natural, machine learning, deep learning u otras. Como ha explicado Marcus du Sautoy en su extraordinario libro Programados para crear, las tecnologías emergentes de Inteligencia Artificial son capaces de aprender por sí mismas debido a dos factores: por un lado, son capaces de plantear nuevas preguntas a partir de los errores y, por otro, necesitan un número enorme de datos para aprender y optimizar la solución más adecuada.

Esto tiene profundas implicaciones éticas y políticas. La revista Noemad publicó en octubre pasado un artículo sobre cómo muchos sistemas de Inteligencia Artificial están entrenados por miles de trabajadores en países pobres, que realizan tareas repetitivas, como etiquetar millones de imágenes —una moto, un perro, un semáforo—, en condiciones laborales precarias.

En su libro Data Feminism, Catherine D’Ignazio y Lauren F. Klein han cuestionado los parámetros de género binarios, raciales, jerárquicos y emocionales con los que los sistemas de Inteligencia Artificial han sido alimentados y que tienden a reproducir estos sesgos. Si el sistema aprende de procesar miles de imágenes realmente existentes, ¿puede sorprendernos que cuando escribimos la palabra “mujer” los generadores de imagen a partir de texto devuelvan imágenes con unos cuerpos sexualizados calcados del manga, el cómic o la publicidad?

La Inteligencia Artificial no es algo “externo” a nosotros. No es una sustancia, un algo. Es un procedimiento que se alimenta de los patrones más significativos de nuestra cultura. Para seguir con las metáforas gramaticales, más que un sustantivo, es una conjugación verbal, un modo de configurar la acción.

En su estudio sobre el buscador de YouTube, Berhard Rieder, Ariadna Matamoros y Óscar Coromillas propusieron el concepto de “cultura algorítmica” para describir el sistema dinámico que emerge cuando nuestra actividad en las plataformas y la Inteligencia Artificial se encuentran. A diferencia de un carro o un proyector estas tecnologías no se pueden reconstruir a través de ingeniería inversa porque adaptan su funcionamiento a partir de lo que los usuarios les damos.

Vivimos en una cultura algorítmica porque nuestras pequeñas o grandes decisiones forman parte de este proceso de retroalimentación tecno-cultural: cada vez que elegimos una película, elegimos tacos o pizza en Google Maps, damos un like, completamos una búsqueda en Google o compartimos un meme contribuimos a que los sistemas aprendan. Por eso tenemos también la posibilidad de pensar bajo qué parámetros queremos construir (y construirnos) con ellos.

Lo más interesante de mi desafortunado tropiezo con el gurú machirulo en TikTok no es lo que ya he contado, sino cómo terminó la historia. Consciente de que cada una de mis acciones mandaba una señal, durante los siguientes días hice swipe lo más rápido posible a contenidos machistas, de manera deliberada di like a videos con el signo ideológico opuesto y me suscribí a dos o tres canales feministas. Y TikTok aprendió: el gurú misógino ha desaparecido de mi vida —ya ni recuerdo su nombre— y ahora solo me aparecen videos de gente que piensa como yo.

*Escritor, periodista y profesor universitario. Estudia culturas de los lectores en internet. Es profesor del Master de Escritura Creativa de la Barcelona School of Management (BSM-UPF) en Barcelona, e investigador en comunicación en la Facultad de Información y Medios Audiovisuales de la Universitat de Barcelona. jmtomasena.com

Revista Generación

Revista cultural con 82 años de historia. Léala el primer domingo de cada mes. Vísitela en www.elcolombiano.com.co/generacion y en el Instagram revista_generacion

x

Revista Generación

© 2024. Revista Generación. Todos los Derechos Reservados.
Diseñado por EL COLOMBIANO