¿La IA es un peligro para la humanidad? Los expertos están divididos

Esta es una de las preguntas que debaten los expertos. No hay respuesta y las opiniones están divididas.

  • La IA preocupa a muchos sobre los riesgos que podría significar para el ser humano. Foto: Archivo Camilo Suárez
    La IA preocupa a muchos sobre los riesgos que podría significar para el ser humano. Foto: Archivo Camilo Suárez
Publicado

Yuval Noah Harari es uno de los historiadores más importantes de los últimos tiempos. Sus libros, entre ellos Sapiens, están en las listas de los más vendidos del mundo, así que sus ideas son seguidas por muchos. Él fue uno de los más de mil expertos que firmó una carta para pedir que hubiese una pausa de seis meses en el entrenamiento de los poderosos sistemas de Inteligencia Artificial.

El argumento de los firmantes es que es una potencial amenaza para la humanidad. Van muy rápido, dijeron.

Este fin de semana, en una entrevista en The Telegraph, Hariri explicó sus argumentos: “Esta es la primera tecnología en la historia capaz de crear historias. La nueva generación de IA no solo comparte el contenido que el ser humano produce, ahora puede producirlo por sí mismo”.

Lea más: Una imagen creada con IA ganó concurso de fotografía de Sony

Para él, explica el autor del artículo Harry de Quetteville, la creencia colectiva en historias como la fe, el dinero y la idea de nación es lo que ha permitido al ser humano su dominio en la tierra. Así que si la IA puede también crear historias, muestra un potencial para hacer cosas buenas y malas al mismo tiempo.

“Trata de imagina lo que significa vivir en un mundo donde la mayoría de textos y canciones y series de televisión e imágenes son creadas por una inteligencia no humana. No entendemos lo que eso significa. ¿Cuáles serían las consecuencias de la IA se haga cargo de la cultura?”, explica el historiador.

La preocupación tiene que ver con la posibilidad de conversar, de debatir. La cercanía con los otros da la posibilidad de convencer, pero con la IA habría un poder de manipular a la gente como no se ha visto hasta ahora, y que hay unos ejemplos con la influencia de los medios de comunicación que jugaron un rol importante en las eleciones de Brasil y Estados Unidos.

Para Harari la IA pone en jaque, sobre todo, la democracia. “Lo es más que para los regímenes autoritarios porque la democracia se basa en la conversación pública. La democracia es básicamente una conversación. La gente conversa con el otro. Si la IA se hace cargo de la conversación, es el fin de la democracia”.

Harari dio un ejemplo: el régimen Nazi se apoyó en tecnologías como los trenes y la electricidad y los radios. No tenía herramientas como la IA. Un régimen en este siglo tendría herramientas mucho más poderosas, “las consecuencias podrían ser aún más desastrosas. Esto es algo a lo que no sé si la humanidad sobreviviría”.

Y hay más

Otro investigador que dio de qué hablar esta semana fue Eliezer Yudkowky, quien publicó un artículo en la revista Time el viernes pasado.

Lo dijo así: “Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán... No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos”.

Él tiene una visión apocalíptica, dice que una IA muy inteligente no permanecerá en los computadores. “En el mundo actual, usted puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a demanda, permitiendo que una IA inicialmente confinada en Internet construya formas de vida artificiales o pase directamente a la fabricación molecular postbiológica”.

Entonces, ¿hay que preocuparse? Por ahora no hay una respuesta definitiva y los expertos están divididos, aunque por ahora la mayoría no tiene una mirada tan catastrófica. O así lo mostró una encuesta a investigadores hecha en 2022, según The Economist: el 48 % dijo que por lo menos hay un 10 % de posibilidad de que la IA impactará negativamente, algo como la extinción humana. El 25 % dijo que el riesgo es cero, y la media fue 5 %.

Por supuesto que esto va ir cambiando, porque incluso hay muchas cosas que no se saben del futuro de la IA: hasta dónde podrá llegar, por ejemplo. Solo hay predicciones hasta el momento. Y aunque por supuesto no hay que dejarse de preocupar, hay que escuchar varias miradas. The Economist, por ejemplo, concluyó que “la clave es equilibrar la promesa de la IA con una evaluación de los riesgos, y estar listo para adaptarse”.

Otras visiones no tan catastróficas

Dos de ellas son las de Yann LeCun, el científico jefe de Inteligencia Artificial de Meta, y la de Andrew Ng, el fundador de Deep Learning, quienes discutieron el tema en una transmisión en vivo en YouTube que titularon Por qué la pausa de seis meses de la IA es una mala idea, y que vieron millones de personas en el mundo. LeCun explicó que “hay probablemente muchas motivaciones de los firmantes, algunas quizá son extremas, preocupados por una Inteligencia Artificial que se encienda y luego elimine a la humanidad en poco tiempo. Creo que pocas personas realmente creen en este tipo de escenario, o creen que es una amenaza definitiva que no se pueda detener. Luego hay gente más razonable, que piensa que hay una portencial peligro real que se necesita lidiar, y yo estoy de acuerdo con ellos”. Para él, hay muchos retos para hacer estos sistemas controlables y no tóxicos, y que habrá muchas nuevas ideas que los harán más controlables. Los dos expertos coincidieron en que se necesita regulación, pero no se debe dejar de investigar e innovar, y que se necesita más colaboración y transparencia entre los investigadores, los gobiernos y las empresas para asegurar el uso ético y responsable de los modelos.

Si quiere más información:

x

Porque entre varios ojos vemos más, queremos construir una mejor web para ustedes. Los invitamos a reportar errores de contenido, ortografía, puntuación y otras que consideren pertinentes. (*)

 
Título del artículo
 
¿CUÁL ES EL ERROR?*
 
¿CÓMO LO ESCRIBIRÍA USTED?
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Acepto Términos y Condiciones Productos y Servicios Grupo EL COLOMBIANO

Datos extra, información confidencial y pistas para avanzar en nuestras investigaciones. Usted puede hacer parte de la construcción de nuestro contenido. Los invitamos a ampliar la información de este tema.

 
Título del artículo
 
RESERVAMOS LA IDENTIDAD DE NUESTRAS FUENTES *
 
 
INGRESE SUS DATOS PERSONALES *
 
 
Correo electrónico
 
Teléfono
 
Acepto Términos y Condiciones Productos y Servicios Grupo EL COLOMBIANO
LOS CAMPOS MARCADOS CON * SON OBLIGATORIOS
Notas de la sección