Tecnología

“Un motor de derechos y desarrollo”: arrancó el proceso para regular uso de IA en Colombia

Una comisión del Congreso busca crear un marco legal para que la inteligencia artificial sea “un motor de derechos, equidad y justicia” en Colombia. Diego Caicedo Navas, quien lidera la iniciativa, explica sus objetivos clave.

09 de noviembre de 2024

A principios de octubre, en la Cámara de Representantes se creó la Comisión Accidental de Inteligencia Artificial, bajo la coordinación de Diego Fernando Caicedo, una iniciativa con el ambicioso objetivo de crear un marco legislativo que impulse el desarrollo de inteligencia artificial (IA) en Colombia, con un enfoque en derechos, equidad y justicia.

Según Caicedo, la comisión es un punto de partida para una discusión profunda sobre el uso de IA a lo largo y ancho del país, subiéndose a la carrera por dominar la tecnología que está cambiando la industria tecnológica mundial desde 2022, con el lanzamiento de la IA generativa ChatGPT.

Entre las propuestas discutidas en este nuevo espacio destaca la necesidad de impulsar una “revolución educativa” en inteligencia artificial desde la primera infancia, subrayando aspectos éticos y críticos para formar ciudadanos preparados y conscientes. Además, en el Congreso se planteó la creación de 70 centros de formación especializados en IA y proyectos de investigación que permitan articular esfuerzos entre el ámbito académico y el político.

En términos de modelos regulatorios internacionales, el representante Caicedo destaca el enfoque de la Unión Europea como el ejemplo más relevante para Colombia. En entrevista con EL COLOMBIANO, el congresista señala destaca la normativa del viejo continente centrada en “la seguridad, la transparencia y, por supuesto, el respeto a los derechos fundamentales”.

Este marco armonizado en la UE busca controlar los riesgos asociados a la IA sin detener la innovación, regulando especialmente aquellas aplicaciones de mayor riesgo. “Para Colombia, adoptar un enfoque similar podría ser clave para asegurar que el desarrollo de la IA sea ético y justo”, explica Caicedo, subrayando la importancia de proteger los derechos en un país con grandes brechas de acceso y conectividad.

¿Cuáles son los principales objetivos de esta Comisión Accidental de IA?

“La Comisión Accidental tiene como propósito escuchar a todos los actores del ecosistema digital, Gobierno Nacional, sector privado, academia y, por supuesto, sociedad civil, para obtener los conocimientos necesarios que permitan que nosotros en el Congreso de la República podamos legislar respecto al uso y al alcance de la inteligencia artificial en la sociedad.

Queremos potenciar los beneficios de esta tecnología y, por supuesto, limitar el mal uso de la inteligencia artificial, especialmente la generativa, en tanto que usarla de mala manera puede significar la vulneración de derechos”.

¿Y cuál es el objetivo a corto plazo; en qué están trabajando ahora?

“Queremos establecer espacios de comunicación como mesas de trabajo, foros, debates, para discutir los aspectos más cruciales y tener rápidamente las bases para una legislación sobre la inteligencia artificial en nuestro país.

Queremos construir un marco legislativo con el acompañamiento de expertos que no sólo impulse la libertad de empresa y la innovación, sino que también respete los derechos humanos y garantice un uso ético de estas tecnologías.

A mediano y a largo plazo, el propósito es que la legislación permita a Colombia estar a la vanguardia en tecnología, que permita ser uno de los países que, protegiendo derechos, permita la innovación y el derecho empresarial, que a la larga traen desarrollo social”.

¿Cómo se articula el trabajo de esta comisión con otros actores claves como la industria tecnológica, el gobierno y la academia para impulsar el desarrollo de la IA en el país?

“De una manera muy sencilla, escuchándolos. La articulación de la comisión con los demás actores consiste en abrir espacios para que nos cuenten sus experiencias, espacios que nos permitan tener una visión más amplia sobre un mismo asunto.

Asimismo, se ha logrado el apoyo desde la academia y el sector privado. Nos han ofrecido sesiones de capacitación en los conceptos básicos de inteligencia artificial, a nosotros los congresistas, Unidades de Trabajo Legislativo y, por supuesto, a la comunidad en general. Esto es importante porque, para legislar correctamente sobre un tema técnico, todos debemos hablar el mismo idioma, hablar en los mismos términos”.

¿Han estudiado ejemplos de lo que se ha hecho en otros países? ¿Qué modelos internacionales de regulación de IA podrían servir de referencia para Colombia?

“El principal referente en términos de marco normativo podríamos decir que es la Unión Europea. Esta establece normas armonizadas sobre inteligencia artificial enfocadas principalmente en garantizar la seguridad, la transparencia y, por supuesto, el respeto a los derechos fundamentales.

Otros países, como Estados Unidos, tienen una legislación más fragmentada, algunas regulaciones a nivel de Estado, pero sin una ley federal que de verdad cubra a todos los ciudadanos y proteja, por supuesto, también esos derechos fundamentales.

China tiene una legislación más vertical, una visión más estandarizada y con mayor control de la tecnología.

Hay diferentes visiones que tenemos que estudiar y, por supuesto, a las que tenemos que aprender para poder avanzar dada la importancia de cuidar y maximizar el potencial e importancia de Colombia como uno de los países de vanguardia en inteligencia artificial en Latinoamérica”.

Regulación de IA en el mundo: lecciones para Colombia

La creciente presencia de inteligencia artificial en diversos sectores económicos ha llevado a gobiernos de todo el mundo a diseñar normativas que fomenten tanto el desarrollo de esta tecnología como la protección de derechos fundamentales.

La Unión Europea, Estados Unidos, China e incluso la OCDE han impulsado marcos regulatorios con distintos enfoques que pueden ofrecer lecciones valiosas para el camino que ahora inicia Colombia.

La Unión Europea ha liderado el desarrollo de una regulación robusta para la IA, cuyo centro es el Reglamento de Inteligencia Artificial (AI Act). Esta propuesta, según detalla la firma legal española Garrigues, especializada en el sector tecnológico, clasifica los sistemas de IA en función de su nivel de riesgo, imponiendo obligaciones estrictas a las aplicaciones de alto riesgo, como la evaluación de conformidad y auditorías periódicas para reducir la discriminación estructural y proteger a los usuarios.

Además, ese reglamento exige que los sistemas de IA de alto riesgo, especialmente aquellos usados en el sector público, se registren en una base de datos, creando un marco transparente y supervisado.

César Funes, vicepresidente de Relaciones Públicas para América Latina de Huawei, analizó que este tipo de enfoque, aunque positivo en términos de seguridad y transparencia, podría ser demasiado restrictivo para países en desarrollo. “Europa regula todo, y eso limita su posición en el desarrollo de nuevas tecnologías”, explicó Funes en entrevista con este medio.

Desde su perspectiva, una regulación tan estricta podría frenar la adopción y la innovación en países como Colombia, que necesitan avanzar rápidamente en la transformación digital. El experto destaca la importancia de evitar una “sobre regulación” que limite el desarrollo tecnológico y aboga por un enfoque más flexible que impulse tanto la innovación como la protección de derechos.

En Estados Unidos, la regulación de la IA ha seguido un enfoque diferente, más orientado al mercado y sin un marco regulatorio federal unificado. Una orden ejecutiva del presidente Joe Biden, firmada en octubre de 2023, dio algunos pasos hacia una mayor supervisión de la IA, estableciendo comités de asesoría y grupos de trabajo sectoriales para abordar el uso ético y seguro de esta tecnología. Sin embargo, en contraste con el modelo europeo, los norteamericanos no imponen obligaciones específicas para distintos tipos de sistemas de IA ni cuenta con un régimen sancionador uniforme.

Funes considera que esa autorregulación del mercado “puede ser muy positiva, aunque también representa riesgos significativos de abuso”. Él comenta que Colombia debería considerar un balance entre la flexibilidad del modelo estadounidense y la seguridad del enfoque europeo. En particular, considera que el país podría fortalecer su infraestructura digital y priorizar la concientización de los usuarios para asegurar un uso ético y responsable de la tecnología, sin caer en limitaciones excesivas que frenen la innovación.

Por último, China aplica un modelo de control centralizado que promueve la innovación tecnológica con una fuerte supervisión estatal. En este enfoque, el gobierno ejerce un control significativo sobre la tecnología, con un énfasis en la seguridad nacional y el aprovechamiento sectorial de la IA. Según Funes, esta combinación de “regulación y autonomía” permite que la inteligencia artificial sea adaptada a las necesidades específicas de cada sector, aunque bajo una supervisión constante.

Aunque el modelo chino puede parecer incompatible con la estructura democrática de Colombia, Funes señala que este ofrece una lección valiosa: la importancia de un marco claro que agilice la adopción de IA en sectores clave. “Cada sector debe poder manejar los riesgos de manera independiente”, subraya, sugiriendo que Colombia podría beneficiarse de un enfoque donde los sectores regulen sus propios riesgos bajo un marco estatal general, sin necesidad de una supervisión omnipresente.