Una noche de febrero en Sídney, Hannah Grundy recibió un correo electrónico anónimo que cambiaría su vida para siempre. “Seguiré enviando correos electrónicos porque creo que esto merece tu atención”, decía el remitente. El mensaje incluía un enlace y una advertencia en negrita: “(Esto) contiene material perturbador”.
Lea más: Mascotas con IA, la nueva fórmula para el bienestar de los jóvenes en China
Temerosa de una estafa, Hannah dudó antes de hacer clic. Sin embargo, lo que encontró era mucho peor de lo que podía imaginar: páginas llenas de imágenes manipuladas con inteligencia artificial (IA), en las que su rostro había sido superpuesto a escenas de contenido sexual violento, según constató el diario británico BBC.
En varias de ellas, su nombre completo estaba visible, junto con detalles personales como su cuenta de Instagram y el suburbio donde vivía. Más adelante, descubriría que también habían publicado su número de teléfono.
Las imágenes no solo la mostraban en situaciones degradantes, sino que también iban acompañadas de amenazas y encuestas donde desconocidos votaban sobre la forma en que querían abusar de ella.
“Parecía asustada. Tenía lágrimas en los ojos. Estaba en una jaula”, recordó Hannah sobre las imágenes falsas para el diario BBC.
La página web donde se difundieron los deepfakes se titulaba “La destrucción de Hannah”, y en ella se acumulaban más de 600 imágenes falsas donde abusaban de ella de diferentes maneras, acompañadas de comentarios escalofriantes.
Uno de los mensajes más inquietantes decía: “Estoy cercando a esta zorra. Quiero esconderme en su casa y esperar hasta que esté sola, agarrarla por detrás y... sentir su lucha”.
La investigación que lo cambió todo
Aterrorizados por lo que habían encontrado, Hannah y su pareja, Kris Ventura, comenzaron a investigar por su cuenta. Al revisar el sitio, descubrieron que había imágenes de al menos otras 60 mujeres, muchas de ellas de Sídney. Las fotos utilizadas para los deepfakes provenían de cuentas privadas en redes sociales.
Pronto, la pareja llegó a una conclusión perturbadora: el responsable debía ser alguien conocido por todas ellas. Durante horas, sentados en la mesa de su cocina, revisaron listas de amigos en redes sociales, cruzaron información y elaboraron un dossier con pruebas. En solo cuatro horas, redujeron la lista de sospechosos a tres nombres. Uno de ellos era Andrew Hayler, un viejo amigo de Hannah.
Hasta ese momento, Andrew era considerado un hombre atento y de confianza. Se habían conocido en la universidad y formaban parte del mismo grupo de amigos. “Era el tipo de persona que se aseguraba de que todas llegáramos sanas y salvas a casa después de una fiesta”, relató Hannah a BBC.
Sin embargo, las evidencias apuntaban a él como el principal sospechoso. Al día siguiente, Hannah acudió a la comisaría con la esperanza de que las autoridades tomaran medidas inmediatas. Sin embargo, lo que encontró fue indiferencia y falta de preparación.
Según relata, un agente le preguntó qué le había hecho a Andrew para provocar tal reacción. En otro momento, le sugirieron que simplemente le pidiera que dejara de hacerlo. Incluso, un oficial miró una foto suya con un atuendo ajustado y comentó: “Te ves muy guapa con esto”.
Desesperada por la falta de acción policial, recurrió al Comisionado de Seguridad Electrónica de Australia, pero el organismo solo podía ayudar a eliminar las imágenes, no a llevar a cabo una investigación criminal. Sin más opciones, Hannah y Kris contrataron a un abogado y a un forense digital para reunir pruebas que obligaran a la policía a actuar.
Durante este proceso, la pareja vivió con miedo constante. Instalaron cámaras en su casa, activaron rastreos de ubicación en los dispositivos de Hannah y dormían con cuchillos en sus mesas de noche. “El mundo se hace más pequeño. No hablas con la gente. Realmente no sales”, describió Hannah.
Finalmente, luego de meses de presionar a las autoridades y tras invertir más de 20.000 dólares australianos (12.400 dólares estadounidenses) en la investigación, la policía asignó un nuevo detective al caso. En dos semanas, Andrew fue arrestado y confesó su culpabilidad.
Cuando Andrew fue llevado a juicio en 2022, Australia aún no tenía leyes que tipificaran como delito la creación y distribución de deepfakes con fines de acoso. Fue acusado de uso indebido de telecomunicaciones para amenazar, acosar o causar ofensas, un cargo menor dentro de la legislación australiana.
Las víctimas, entre ellas Hannah y otras 25 mujeres que decidieron unirse al caso, ofrecieron testimonios impactantes sobre cómo los deepfakes habían afectado sus vidas.
En su declaración ante el tribunal, una de ellas expresó: “El mundo se siente desconocido y peligroso, estoy constantemente ansiosa, tengo pesadillas cuando duermo”.
Cuando Andrew finalmente habló, intentó justificar sus acciones alegando que crear las imágenes lo hacía sentir “empoderado” y que no creía que causaran un daño real.
Sin embargo, la jueza Jane Culver rechazó su argumento, señalando que su comportamiento era “prolífico” y “perturbador”, y que había causado un sufrimiento “profundo y continuo” en las víctimas.
Andrew fue condenado a nueve años de prisión, en lo que se considera una decisión sin precedentes en Australia. Su condena sentó las bases para la criminalización de los deepfakes a nivel nacional, marcando un antes y un después en la legislación sobre delitos digitales en el país.
El problema global del abuso con Inteligencia Artificial
El caso de Hannah puso en evidencia la falta de preparación de las fuerzas de seguridad ante el uso malintencionado de la inteligencia artificial. Aunque Australia recientemente ha penalizado la creación y difusión de deepfakes con contenido sexual no consentido, expertos advierten que la mayoría de los países carecen de regulaciones efectivas.
En el Reino Unido, por ejemplo, compartir una imagen pornográfica alterada es un delito, pero crearla o solicitarla no lo es. Mientras tanto, en muchas otras naciones, estos delitos aún no están contemplados en la ley.
Las autoridades australianas han anunciado que reforzarán la capacitación de sus agentes para manejar casos de inteligencia artificial, y colaborarán con empresas tecnológicas para combatir el abuso digital. Sin embargo, el problema persiste y muchas víctimas aún enfrentan dificultades para obtener justicia.
A pesar de la sentencia, Hannah sabe que el daño que sufrió es irreparable. Continúa pagando un servicio que rastrea la web en busca de las imágenes que la atormentaron, temiendo que un día sus estudiantes, amigos o familiares las encuentren.
“Publicas fotos en redes sociales para compartir momentos felices: la compra de tu casa, el nacimiento de tu perro, tu compromiso... pero él convirtió cada uno de esos recuerdos en pornografía. Ahora, cuando veo esas imágenes, solo me veo siendo violada”, confesó.
Le puede interesar: Compitiendo por conquistar usuarios: así va la carrera de la Inteligencia Artificial
Mientras tanto, Andrew Hayler espera la posibilidad de apelar su condena en 2029.