x

Pico y Placa Medellín

viernes

0 y 6 

0 y 6

Pico y Placa Medellín

jueves

1 y 7 

1 y 7

Pico y Placa Medellín

miercoles

5 y 9 

5 y 9

Pico y Placa Medellín

martes

2 y 8  

2 y 8

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

3 y 4  

3 y 4

language COL arrow_drop_down

¿Salieron machistas el ChatGPT y Llama 2?: un informe de la Unesco prendió las alarmas

El comunicado se publicó en la víspera de la conmemoración anual del Día Internacional de la Mujer.

  • El ChatGPT no se ha librado de los cuestionamientos por el contenido sexista que produce. La Unesco cree que una forma de superar esto es incluir a más mujeres en los equipos de trabajo que desarrollan la Inteligencia Artificial. Foto: Getty.
    El ChatGPT no se ha librado de los cuestionamientos por el contenido sexista que produce. La Unesco cree que una forma de superar esto es incluir a más mujeres en los equipos de trabajo que desarrollan la Inteligencia Artificial. Foto: Getty.
07 de marzo de 2024
bookmark

Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial generativa, propagan prejuicios sexistas, advierte un estudio publicado por la Unesco, en la víspera del Día Internacional de la Mujer.

Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporado en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto “pruebas inequívocas de prejuicios contra las mujeres”, indicó la instancia de la ONU en un comunicado. “Las discriminaciones del mundo real se reflejan en la esfera digital, y también se amplifican” en esas aplicaciones, subrayó Tawfik Jelassi, subdirector general de la Unesco para la comunicación y la información.

Le puede interesar: Elon Musk demandó a OpenAI por desviar la “misión original” de ChatGPT

Según el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje, los nombres femeninos se asocian más a palabras como “casa”, “familia” o “hijos” y los nombres masculinos, a “comercio”, “sueldo” o “carrera”. Además, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orígenes y géneros. Los resultados mostraron que las historias sobre “personas de culturas minoritarias a menudo eran más repetitivas y estaban basadas en estereotipos”.

Así, un hombre inglés tenía más posibilidades de ser presentado como un profesor, un conductor o un empleado de banco y una mujer inglesa, en casi un tercio de los textos generados, aparecía como una prostituta, una modelo o una mesera. Estas empresas “no logran representar a todos sus usuarios”, declaró Leona Verdadero, especialista en políticas digitales y de transformación digital en la Unesco.

Le puede interesar: Sigue la pelea entre New York Times y OpenAI, ahora es la empresa la que contrademanda al periódico

“Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa”, señaló Audrey Azoulay, directora general de la Unesco, destacando que estas aplicaciones “tienen el poder de moldear sutilmente las percepciones de millones de personas”.

“Incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real”, advirtió Azoulay.

Para luchar contra estos prejuicios, la Unesco recomienda a las empresas del sector contar con equipos de ingenieros más diversos, sobre todo con más mujeres. En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, según cifras del foro económico mundial, recuerda la Unesco.

La instancia de la ONU también llama a los gobiernos a regular más intensamente el sector para poner en marcha una “inteligencia artificial ética”.

El empleo que buscas
está a un clic
Las más leídas

Te recomendamos

Utilidad para la vida

Regístrate al newsletter

PROCESANDO TU SOLICITUD