Hace unos días se conoció que directivos de OpenAI compartieron con sus empleados, en una reunión privada, detalles de una nueva plataforma de inteligencia artificial que podría desarrollar un razonamiento cercano al del cerebro humano.
Como en las historias de ficción más inquietantes, por ejemplo la del sistema Skynet en la saga Terminator, la idea de una IA que adquiera la capacidad de tomar decisiones de forma autónoma trae consigo temores y debates sobre los límites que la humanidad debe establecer. Sin embargo, la industria tecnológica está todavía alejada de eso.
En el encuentro con todo su personal, los ejecutivos de la casa matriz de ChatGPT detallaron su visión de un sistema de cinco niveles para medir el progreso hacia una inteligencia artificial que supere a los humanos.
La compañía aseguró estar a punto de alcanzar el segundo nivel, denominado “Razonadores”, donde sus modelos de IA, al parecer, ya pueden resolver problemas complejos de química avanzada.
Pero OpenAI es solo uno más de los actores clave en la industria de tecnología que ha acelerado el desarrollo de este tipo de modelos de IA. Google, Anthropic, Meta, entre otras, también trabajan en proyectos similares, con el objetivo de crear herramientas que actúen como ‘copilotos’ en diversas tareas, aumentando su utilidad y efectividad en aplicaciones profesionales y personales.
¿Qué tan cerca estamos realmente de ver una IA que aprenda a razonar, como en las películas de ciencia ficción? José Betancur, director del programa Nodo de la universidad Eafit, cree que, pese a los avances de OpenAI, el lanzamiento de una plataforma con esas características “no es posible en el corto plazo”.
¿Qué significa razonar?
Uno de los puntos más importantes que Betancur destaca es la necesidad de redefinir el concepto de “razonar”. Aunque OpenAI y otras compañías aseguran que sus modelos están progresando en esta área, aún no está claro qué significa exactamente eso para una máquina.
En entrevista con EL COLOMBIANO, Betancur explica que “razonar implica hacer una inferencia lógica para resolver un problema con información disponible”. Sin embargo, las IA actuales, incluidos modelos avanzados como ChatGPT y Gemini de Google, siguen funcionando como “loros digitales”, repitiendo patrones aprendidos de sus datos de entrenamiento en lugar de generar razonamientos originales a partir de su experiencia.
Como ejemplo, recuerda una anécdota de la serie animada Futurama: “Cuando Bender quiere ser chef. Él cocina, prepara todo, pero como no tiene el sentido del gusto, no sabe cómo le quedó. Finalmente, la tarea del chef es el proceso de ir probando, mirar con pericia lo que falta y lo que sobra. Lo mismo pasa en el desarrollo de la inteligencia artificial, la industria avanza hacia un nivel donde la máquina podría, eventualmente, acercarse a una comprensión más profunda de lo que se le enseña, pero falta avanzar mucho hasta que la IA pueda realmente entender lo que está observando”.
Este fenómeno ha sido objeto de debate entre académicos y expertos en IA en todo el mundo. Melanie Mitchell, profesora del Santa Fe Institute (New Mexico, EE.UU.) y autora del libro Inteligencia artificial: una guía para humanos pensantes, sugiere que estos modelos en realidad no hacen un razonamiento profundo, sino que extraen patrones específicos de razonamiento de problemas similares en los datos con los que fueron entrenados previamente, es decir, simulan inteligencia.
“Tal vez haya otras formas, algún tipo de atajos. Puede que encontraran asociaciones estadísticas que les ayuden a resolver el problema correctamente sin tener que pasar por el tipo de razonamiento que harían los humanos”, plantea Mitchell en conversación con Bloomberg.
Los avances recientes y sus limitaciones
Mientras que OpenAI trabaja en su modelo de IA capaz de resolver problemas complejos, especialistas son escépticos sobre este tipo de avances.
Betancur cree que, si el boom de las plataformas de IA generativa se mapea en una curva de Gartner (modelo que ilustra la madurez, adopción y aplicación de tecnologías emergentes a lo largo del tiempo) “vemos que todavía estamos en la expectativa inflada, la segunda etapa (de cinco). Creo que en este momento lo que tiene que empezar a pasar es que la gente del común y las empresas empecemos a usar lo que tenemos hoy. Luego, puede que a la vuelta de dos o tres años lleguemos a nuevos usos de estas herramientas, pero la verdad es que todavía falta mucho por explorar en este campo”.
El docente cuenta que, en pruebas sencillas, el modelo más avanzado de OpenAI a veces no puede resolver preguntas matemáticas simples, errores que, aunque parecen triviales, “revelan que a pesar de su sofisticación, las IA aún tienen dificultades con tareas que los humanos resuelven con sentido común”.
También le puede interesar: “No tenemos botón rojo para apagarla cuando se salga de las manos”: Martin Hilbert hablando de Inteligencia Artificial
Shauna Kravec, investigadora de Anthropic, sugiere que parte de ese problema radica en la velocidad con la que los modelos intentan resolver las preguntas e instrucciones que el usuario plantea.
“A menudo resuelven los problemas demasiado rápido”, lo que puede llevar a errores. Una solución a esto ha sido la implementación de la técnica de “cadena de pensamiento”, que consiste en pedir a los modelos que expliquen su lógica paso a paso.
Sin embargo, como advierte Kravec, este método no siempre es efectivo, ya que los modelos también pueden “pensar demasiado”, lo que afecta su rendimiento “de manera similar a cómo un conductor puede volverse menos eficiente si sobrepiensa cada movimiento”.
¿Qué sigue en el desarrollo de la IA?
El director del programa Nodo cree que, antes de contemplar si las máquinas podrán razonar como nosotros, el siguiente gran avance en la IA debe ser la integración de entradas y salidas multimodales.
Hoy, algunos modelos permiten que los usuarios interactúen a través de medios como texto e imágenes, pero las respuestas siguen siendo limitadas a un solo formato. “Puedes tomar una foto de un cuaderno y pedirle a la IA que te sume, pero la respuesta será solo en texto”, explica.
En ese sentido, prevé que en un futuro los modelos de IA generativa podrán dar respuestas más integradas y completas, combinando gráficos, texto y otros medios en una sola interacción, lo que haría sus propios procesos de razonamiento más comprensibles y efectivos.
Aunque estas mejoras son prometedoras, Betancur subraya que aún estamos en una etapa limitada del razonamiento en IA. Los sistemas actuales todavía no son capaces de realizar conexiones complejas entre diferentes tipos de información, un paso que sería crucial para avanzar hacia una IA más avanzada y capaz de resolver problemas más allá de las habilidades humanas.
En sus palabras, “el razonamiento de las IA no se parecerá al humano en el corto plazo sino en el mediano. Creo que cerramos esta década con la inteligencia artificial generativa como la conocemos o muy similar y tal vez para 2030 veamos algo diferente. Amanecerá y veremos”.