Con un audio de tres segundos o una foto de las que tiene en sus redes sociales pueden hacer un video para suplantarlo o usar su voz para vaciarle sus cuentas bancarias. Resulta que los criminales ya echaron mano de la Inteligencia Artificial (IA) y la pusieron a su servicio para estafar, robar y hasta evadir a las autoridades. En Medellín se estima que 40% de los delitos digitales ya estarían usando la IA.
Lo que más preocupa a las autoridades es que esta tecnología es tan eficiente que hace cada vez más indetectable la forma de operar tanto para las autoridades como para las víctimas, por lo que desde la Policía Nacional ya se preparan para contrarrestar su accionar.
Le puede interesar: No fue suficiente con DeepSeek: China anuncia otro nuevo modelo de inteligencia artificial
El director de la Dirección de Antisecuestro y Antiextorsión de la Policía Nacional, coronel Elver Vicente Alfonso, explicó que “actualmente el gremio comercial es el más afectado por el cibercrimen impulsado por la Inteligencia Artificial (IA), aprovechando que estas acciones son más difíciles de detectar”.
Para cometer estos delitos, al menos para la extorsión, las organizaciones criminales no solo cuentan con las plataformas más conocidas del mercado, sino que han desarrollado las propias, usadas específicamente para las actividades criminales.
David Pereira, CEO de Security Profesional (SecPro) y experto en ciberseguridad, explicó que “los criminales tienen sus propias plataformas de inteligencia artificial de actos delictivos para su servicio y las tienen puntualmente para instalar malware (troyanos y virus), hacer fraudes mucho más creíbles y hackear equipos telefónicos y computadores”.
Así se mueve en Medellín
Los usos de la IA para fines criminales no son ajenos a la realidad de Medellín y solo en la modalidad de extorsión se estima que el 40% de los delitos digitales que suceden en la ciudad ya se estarían haciendo mediante esta tecnología.
De acuerdo con la Policía Metropolitana, el año pasado, de 1.327 casos registrados el año pasado en el Valle de Aburrá, 557 se ejecutaron mediante modalidades digitales. Si bien aún es un estimado porque se avanza en su detección, en 223 casos se tendría indicios del uso de herramientas de IA para su comisión, principalmente aquellas que modifican fotografías, videos o alteran las voces de las víctimas.
Lea también: La IA llega a las aerolíneas para mejora la experiencia del cliente (y otros consejos para viajeros)
El comandante de la Policía Metropolitana, general William Castaño Ramos, expresó que “como la tecnología avanza, pues también los delincuentes se meten a este mundo de tecnologías de información y ya tenemos algunos casos en las que utilizan modificación a la voz para poder intimidar a las personas para que caigan en una extorsión”.
Desde el Gaula, tanto en el Valle de Aburrá, como desde la Dirección Nacional a través de una de sus unidades especializadas, avanzan en las investigaciones para dar con las modalidades extorsivas y con los demás delitos en los cuales usan tanto las plataformas generales como las más específicas para extorsionar, robar dinero o suplantar identidades.
No obstante, para las autoridades sigue siendo clave que las personas tengan cuidado con el manejo de sus datos, evitando abrir contenidos sospechosos o entregar datos sensibles a aplicaciones desconocidas. También verificar quién le escribe o le hace videollamadas mediante aplicaciones de mensajería.
El mayor Juan Bautista Lozano Castellanos, jefe de ciberseguridad del Gaula de la Policía Nacional, explicó que el delincuente, antes de implementar la Inteligencia Artificial a la hora de cometer delitos, primero estudia a sus víctimas mediante sus comportamientos en redes sociales, principalmente, además de enviar trampas como contenido sospechoso o solicitudes inusuales en alguna plataforma.
No solo es la extorsión
Si bien el principal delito para el que se está usando la IA es la extorsionar, no es la único, ya que también se implementa para que los delincuentes puedan vaciar las cuentas bancarias de sus víctimas, aplicando varias de las modalidades para extraer la información base y mediante las plataformas terminar de materializar el crimen.
Una de las más comunes es alterando la voz mediante aplicaciones gratuitas de IA y la otra es creando correos puntuales, con links que instalan virus y otras herramientas para sustraer información y con ello obtener las claves de las cuentas bancarias para robar todo lo que tenga en ellas.
De acuerdo con el estudio Inteligencia artificial y crimen organizado del Programa de Asistencia contra el Crimen Organizado (Paccto 2.0) y financiado por la Unión Europea, de noviembre del año pasado, se encontró que cada vez son más las estructuras trasnacionales que están usando estas herramientas al servicio de la criminalidad.
Siga leyendo: El uso de la Inteligencia Artificial en los celulares se ha duplicado en el mundo en solo seis meses
Por ejemplo se referenció un informe de Interpol sobre la evaluación del fraude financiero en los que se ha usado el deepfake para abrir cuentas bancarias en línea para expandir las redes de mensajeros que prestan servicios a las estructuras criminales en el viejo continente.
Esto sumado a que hay bandas dedicadas al lavado de activos que ya también están usándolas para poder ocultar sus movimientos bancarios de las autoridades antes de convertirlas en criptomonedas o trasladarlos a paraísos fiscales.
Las redes de trata de personas también están utilizando la IA para atraer a sus víctimas, con mensajes más llamativos y nuevas estrategias de manipulación para atraer a las víctimas para su explotación, logrando así ser más efectivos a través de las redes sociales y aplicaciones de citas.
Uso en las bandas de Medellín
En cuanto a las estructuras delincuenciales de Medellín, de acuerdo con los expertos, aún no se tienen mayores rastros del uso de estas herramientas a la hora de cometer delitos digitales o a la hora de blanquear los recursos obtenidos de manera irregular por parte de las autoridades, aunque para algunos conocedores del conflicto urbano las estructuras estarían usando enlaces para la IA.
“Las bandas usan tecnología para el tema de lavado e inversiones en criptomonedas, robo de criptomonedas, uso de darkweb para narcotráfico y de software de encriptación para sus comunicaciones. Es posible que esas herramientas tengan software soportado en IA, aunque los bandidos no hacen la programación propiamente”, advirtió uno de los expertos en conflicto armado de Medellín.
Formas para detectarlo
Pese a todo esto, las autoridades entregaron una serie de recomendaciones para que las víctimas y sus allegados puedan detectar cuando se presentan alteraciones mediante la inteligencia artificial, por más real que pueda parecer.
Lo primero es mirar si hay inconsistencias en las imágenes y los audios, sombras aleatorias y mirar si hay desalineaciones en partes de la cara como los ojos o la boca. También se debe mirar si hay saltos raros en la calidad y la nitidez y si los reflejos de los ojos coinciden.
Pero lo más importante en caso de ser víctima de algunos de los delitos cometidos mediante IA es no tomar medidas desesperadas y apoyarse de las autoridades para solucionar cualquier problema.
“Si tiene inconveniente con las deepfakes, lo primero que se recomienda es actuar con calma ante la situación y denunciar, mientras que si le instalan alguna aplicación para robarle sus datos, lo primero que se debe hacer es proteger sus cuentas y mantener los registros”, concluyó el mayor Lozano.
A continuación le contamos cuáles son las modalidades más comunes para cometer delitos con el uso de la inteligencia artificial:
Alteración de fotos y videos con desnudos
Una de las modalidades que viene tomando más fuerza es la conocida como deepnudes, que consiste en intercambiar imágenes de una persona y ubicarla en un cuerpo que se encuentre desnudo o realizando acciones reprochables, tales como infidelidades, o delitos como abuso de menores o violaciones.
Después de obtener estas imágenes alteradas, los criminales las envían a las víctimas y con las mismas hacen solicitud de dinero para evitar difundirlas en redes sociales.
Se han conocido casos de personas que suben fotos en vestidos de baño y con el uso de la IA les quitan las prendas, dejándolas completamente desnudas mediante plataformas que hacen el proceso en cuestión de segundos.
Para este tipo de deepfakes lo que hacen las aplicaciones es usar algoritmos vinculando dos redes neuronales, conocidas como redes generativas antagónicas (GAN) para buscar el resultado más realista posible, sin importar si es video o foto.
Pero no solo se usa con finales de extorsionar mediante imágenes sexuales, sino también para simular la presencia de una persona en algún lugar o evento, a lo que llaman los expertos como deepfake para suplantación de identidad o fraudes financieros.
Con la IA se cambia la voz para extorsionar
Uno de los usos más recurrentes de la Inteligencia Artificial con fines delictivos pasa por el uso de una voz para extorsionar o cometer hurtos en entidades bancarias en las que requiere el uso de la voz como medida de seguridad.
“Ya los delincuentes se están metiendo con herramientas de inteligencia artificial que permiten recrear voces, imágenes y textos completos, haciendo uso de plataformas gratuitas que permiten recrear hasta cuatro o cinco voces antes de cobrar y ellos solo usan dos o tres para sus finalidades”, explicó el docente investigador del ITM, Héctor Fernando Vargas.
Para esta práctica, buscan un fragmento de la voz de la víctima y después elaboran mensajes o frases cortas para enviarlas a los familiares y conocidos y así comenzar el proceso extorsivo.
Tal como lo manifestó el experto, esta es una de las modalidades más recurrentes ante la gran cantidad de portales, algunos gratuitos y otros de pago, que hacen las modificaciones de voces, aunque en sus comienzos no se crearon con fines delictivos.
De acuerdo con algunos sitios web, para esta modalidad son necesarios únicamente tres segundos de voz para realizar una réplica de la misma, llegando a ser esta tan exacta que no se puede diferenciar de la original.
Mensajes más pulidos con la automatización
Principalmente con fines extorsivos y desde centros carcelarios, algunas estructuras están haciendo uso de la IA para redactar los mensajes que van a enviar a sus víctimas para cometer los fraudes, dejando atrás los que se hacían con errores ortográficos o incoherencias.
Con aplicaciones básicas y populares como ChatGPT, por mencionar a la más conocida de todas, los criminales elaboran los textos para organizarlos en plataformas y posteriormente proceder con su envío.
“Existen plataformas de IA que también se encargan de masificar las estafas, enviando un mismo mensaje de manera más rápida y no como se hacía antes, que era un reenvío individual”, explicó David Pereira, experto en ciberseguridad durante un encuentro de la Policía Nacional.
Con esta tecnología pueden mandar mensajes intimidantes para pedir dinero o para obligar a las víctimas a acceder a vínculos para posteriormente hurtarles la información de su teléfono y cuentas bancarias, de acuerdo con las autoridades.
De acuerdo con la Europol, las autoridades desmantelaron una red internacional que usaba la IA para efectuar ingeniería social de sus víctimas para segmentarlas y posteriormente enviarle correos y mensajes fraudulentos a personas de alto nivel.
Lavado de activos y ocultar datos de movimientos
No solo en las modalidades de extorsión la IA tiene participación. Algunas estructuras criminales, principalmente las transnacionales, hacen uso de las herramientas para hacer movimientos de dinero ilegal y así evitar que este sea monitoreado por las autoridades.
La Interpol ha reportado movimientos de estas organizaciones europeas y latinoamericanas en las que las organizaciones han usado esta tecnología para aprovechar los vacíos legales y encontrar la mejor aplicación para convertir el dinero producto de las rentas ilegales en criptomonedas.
Esto se hace en grandes transacciones y recientemente trascendió el caso de una estructura en Italia que movió más de 40 millones de euros en criptomonedas.
También se tiene conocimiento de algunas plataformas utilizadas para que las organizaciones criminales oculten el origen de sus movimientos antes de dejarlos en paraísos fiscales.
En cuanto a las estructuras delincuenciales de Medellín, hasta el momento no se tiene reporte oficial de que estén usando esta modalidad para hacer el lavado de sus activos, aunque tampoco descartan que en el corto plazo se den los primeros hallazgos de la explotación de plataformas de IA al servicio de esta modalidad delictiva.