El ganador del Nobel de Física, Geoffrey Hinton, conocido el “padrino de la inteligencia artificial (IA)” por ser una figura clave en el desarrollo de esta tecnología, fue premiado este martes por sus contribuciones pioneras en el campo del aprendizaje automático, fundamentales para los avances agigantados que se ven hoy en día en la IA.
Hinton, de 76 años, creó la máquina de Boltzmann, la cual aprende a reconocer elementos característicos en un tipo determinado de datos y se entrena alimentándola con ejemplos.
Su trabajo, que viene desde la década de 1980, junto con su también laureado colega John Hopfield, de 91 años, ayudaron a sentar las bases para la revolución del aprendizaje automático que comenzó alrededor de 2010, crucial para la IA.
Sin embargo, a pesar de ser uno de los padres fundadores de esta tecnología, Hinton ha expresado en los últimos meses su preocupación por los riesgos potenciales de su descubrimiento.
Una de las principales inquietudes del investigador es que las IA superinteligentes podrían eventualmente escapar del control humano. Al desarrollar capacidades que superen la comprensión humana, estas máquinas podrían tomar decisiones independientes.
Así lo dio a conocer el informático británico en una entrevista en junio de este año en el programa de radio científica de la BBC “The Naked Scientists” mientras hablaba sobre cómo funciona la IA.
Durante el tiempo que trabajó con Google, Hinton detalló: “estaba trabajando en cómo hacer computadoras analógicas que usaran mucha menos energía que las computadoras digitales que usamos para estos chatbots. Y mientras lo hacía, me di cuenta de que las computadoras digitales eran en realidad mejores que las computadoras analógicas que tenemos, como el cerebro. Así que durante la mayor parte de mi vida estuve haciendo estos modelos en computadoras digitales para intentar comprender el cerebro. Y supuse que cuanto más parecidas fueran las cosas al cerebro, mejor funcionarían. Pero llegó un momento en el que me di cuenta de que, en realidad, estas cosas pueden hacer algo que el cerebro no puede hacer y eso las hace muy poderosas”.
Según había explicado Hinton, las computadoras digitales pueden simular redes neuronales de manera idéntica. Entonces, como resultado, puedes tener muchas copias exactas de la misma red neuronal en diferentes computadoras. Cada copia puede recibir diferentes fragmentos de información, como porciones del contenido en internet, y aprender de manera independiente.
Por lo que Hinton abordó dos tipos de preocupaciones sobre los riesgos de la inteligencia artificial: la “amenaza existencial” a largo plazo y los riesgos inmediatos que ya están afectando a la sociedad, como el contenido hiperrealista de la IA generativa para crear fake news. Una idea que el científico insiste no se debe ignorar es la posibilidad de que las IA puedan volverse más inteligentes que los humanos y potencialmente tomar el control.