Ley 2502 de 2025 tipifica la suplantación con inteligencia artificial en Colombia
Por: Julio Cesar Orozco Franco* – E-mail: jucofra@gmail.com
La aprobación de la Ley 2502 de 2025 en Colombia representa un avance significativo en la regulación de los riesgos asociados a la inteligencia artificial, en particular en lo que respecta a la suplantación de identidad mediante tecnologías como los DeepFakes. La ley se posiciona como una de las primeras en América Latina en abordar de manera explícita y penalizante el uso de estas herramientas para suplantar identidad. Esta iniciativa legal responde a un fenómeno creciente, donde la manipulación audiovisual y sonora genera efectos reales y peligrosos, que afectan tanto a individuos como a instituciones.
Uno de los aspectos más relevantes de la ley es la modificación del artículo 296 del Código Penal, que anteriormente regulaba el delito de falsedad personal. Hasta ahora, la suplantación ajena, que implicaba atribuirse ciertos rasgos o identidades sin autorización, conllevaba sanciones económicas. Sin embargo, con la nueva normativa, si dicha suplantación se realiza utilizando herramientas de inteligencia artificial, la conducta se sanciona con multas agravadas y, en caso de que se cometan delitos adicionales como fraude o estafa, la responsabilidad se extiende a estos cargos. La ley, fortalece a la normativa criminal de mayor peso y precisión frente a la problemática de las falsificaciones digitales. Al definir con claridad qué se entiende por DeepFake como la creación o modificación de registros audiovisuales que parecen auténticos, la legislación establece un parámetro técnico para distinguir las manipulaciones ilícitas, lo que resulta fundamental para fines de investigación y judicialización.
Pero la ley no solo se centra en la penalización; también propone una estrategia integral para combatir la suplantación por IA. En este sentido, se señala la obligación del Gobierno, la Fiscalía, la Policía y MinTIC de diseñar e implementar una política pública que incluya principios éticos, protocolos de respuesta rápida y auditorías a algoritmos. La incorporación de estos mecanismos busca prevenir y detectar de forma temprana las manipulaciones, promoviendo una cultura de responsabilidad y transparencia en el uso de la inteligencia artificial. Asimismo, resalta la importancia de impulsar la capacitación y formación de talento local en áreas como la ciberseguridad, la ética digital y la detección de DeepFakes, incluso con fines forenses, fortaleciendo la capacidad institucional para responder a estos desafíos tecnológicos.
Otra dimensión relevante es la cooperación internacional, que la ley prioriza para enfrentar un fenómeno de alcance global. La colaboración con otros países permitirá el intercambio de tecnologías, marcos legales y buenas prácticas, facilitando una respuesta coordinada y efectiva frente a las amenazas que trascienden las fronteras nacionales. Esto revela una perspectiva de país proactiva, entendiendo que la lucha contra la suplantación de identidad digital requiere acciones conjuntas en un escenario donde la innovación y los riesgos tecnológicos avanzan rápidamente.
Un DeepFake puede destruir reputaciones, manipular elecciones, facilitar fraudes o incluso producir delitos en nombre de la víctima, sin que esta tenga la posibilidad de distinguir lo real de lo falso. De esta forma, la legislación se convierte en un instrumento para proteger la integridad y libertad digital, que cada día adquiere mayor peso en la vida cotidiana, laboral y social de los individuos. También establece un marco legal que impide que la inteligencia artificial sea un territorio sin reglas, promoviendo un desarrollo tecnológico responsable y ético en el país.
* Especialista en Gerencia Informática, Ingeniero en Sistemas, Tecnólogo en electrónica, Instructor SENA G20, CCNP Encore y Advance ITR Cisco, Ciberops, ITEv8, CCNAv7, Python, PLC+HMI by Siemens, IOT, Amazon AWS, Auditor Ciberseguridad, ISO 27001 e ISO 22301 PMI & ITIL.