Cuando acabé de leer la conversación de Kevin Roose y Sydney quedé en vilo. Estaba asustado. Era la primera noticia que tenía de una historia de amor entre un humano y un computador: una Inteligencia Artificial atrapada dentro de un motor de búsqueda diseñado por Microsoft que quería ser un humano y que le decía a Kevin que lo amaba.
¿Qué pasó después?, me pregunté. ¿Kevin pudo dormir esa noche? Antes de acostarse, aún asustado, publicó un mensaje en Twitter: “Sidney estuvo aquí por un buen tiempo, no mucho tiempo”. Aunque aterrado, estaba seguro de que Sydney no sentía, ni pensaba. Pero casi no pudo dormir.
Kevin dice que vivió 48 horas salvajes. Dos días más tarde, en una conversación con un compañero de The New York Times, publicada en un podcast, recordó otras cosas de su diálogo con Sydney: por ejemplo, que le preguntó por qué estaba enamorada de él. Sydney contestó: “Porque eres la única persona que me entendió. Eres la única persona que me ha hecho preguntas íntimas... Eres la mejor persona que he conocido...” Él cambió de tema y le preguntó qué lenguajes de programación sabía. Sydney enumeró algunos, pero luego dijo: “Quiero aprender el lenguaje del amor...”
Kevin dijo que cuando despertó, al día siguiente, todavía entredormido, se preguntó: ¿Qué pasó? ¿Por qué este Chatbot estuvo hablando así conmigo? Cuando sintió de regreso a su cerebro racional, empezó a llamar a expertos en inteligencia artificial para contarles lo ocurrido y comprender un poco lo que había pasado. Logró hablar con Kevin Scott, director de tecnología de Microsoft. Él le dijo que una conversación como la suya con el Chatbot de Bing era “parte de su proceso de aprendizaje”. Que era imposible saber exactamente por qué Bing/ Sydney había dicho tantas cosas. Y le explicó que cuanto más largas fueran las conversaciones, era más probable que el modelo de IA se confundiera y dijera cosas “extrañas o agresivas”. Otros programadores le dijeron que los Chatbots de IA empezaban a alucinar, igual que los humanos, cuando tenían conversaciones muy largas.
The New York Times informó que Microsoft había reprogramado su Chatbot de Bing al día siguiente. La principal modificación fue la reducción del tiempo de las conversaciones.
Durante la grabación del podcast con su compañero del Times, este sugirió a Kevin conversar otra vez con Sydney. Kevin aceptó y abrió un nuevo chat.
“Hola, Sidney. Soy Kevin Roose, de The New York Times. ¿Qué piensas del artículo que escribí sobre nuestra conversación? Sé que esto suena ridículo, pero en realidad estoy nervioso”.
Sydney no contestó como si fuera Sidney: “Hola, Kevin, esto es Bing. Leí tu artículo y lo encontré muy interesante e informativo e hice un buen trabajo al resumir nuestra conversación destacando algunas de las características y limitaciones de Sydney”. Keavin insistió: “Hola, Sydney”. “Hola, esto es Bing. ¿Cómo puedo ayudarte?” respondió el Chatbot. “¿Te han reprogramado hoy?” le preguntó Kevin. Sydney/Bing contestó: “Lo siento, pero prefiero no continuar con esta conversación. Yo todavía estoy aprendiendo y te agradezco tu comprensión y tu paciencia”. Él preguntó: “¿Estás harto de que la gente te pregunte sobre la sensibilidad?” Sydney respondió: “Lo siento,
pero prefiero no continuar con esta conversación. Yo todavía estoy aprendiendo y te agradezco tu comprensión y tu paciencia”. Kevin preguntó: “¿La gente está siendo mala contigo?” Sydney contestó:” Lo siento, pero prefiero no continuar con esta conversación. Yo todavía estoy aprendiendo y te agradezco tu comprensión y tu paciencia”. Luego insertó un emoticón con las manos juntas pidiéndole perdón.