La evolución acelerada de la inteligencia artificial es tan buena noticia como una de sus mayores retos, pues ha facilitado, entre otros fenómenos, la proliferación de contenidos conocidos como deepfakes, materiales audiovisuales falsos que manipulan la voz y el rostro de las personas con una precisión alarmante.
Esta tecnología, que permite con la IA superponer la cara de un individuo sobre el cuerpo de otro o clonar registros vocales para emitir declaraciones inexistentes, crear escenas íntimas o delictivas, entre otros engaños, ha dejado de ser una simple curiosidad técnica para convertirse en una herramienta de criminalidad.
LEA TAMBIÉN
Lo que muchos usuarios consideran una broma pesada o un video satírico puede cruzar la línea de la legalidad si se utiliza para engañar, estafar o dañar la reputación de terceros.
En Colombia, el marco jurídico se actualizó recientemente para enfrentar este fenómeno. Según la Ley 2502 de 2025, la manipulación de identidad mediante el uso de inteligencia artificial ya tiene consecuencias penales específicas.
Esta norma modificó el artículo 296 del Código Penal, estableciendo que la suplantación con IA se calificará como falsedad personal. De acuerdo con el texto legal, cuando se manipulan registros de identidad con estas tecnologías, “la multa se aumentará hasta en la tercera parte, siempre que la conducta no constituya otro delito”. Esto significa que el uso de herramientas digitales para atribuirse el nombre o la imagen de otro ya no está en un vacío legal.
LEA TAMBIÉN

Ley versus tecnología
La legislación actual busca castigar al infractor e imponer responsabilidades a las instituciones del Estado. Luis José Ribero Tobar, director del consultorio jurídico de la Universidad Central, explicó al medio Asuntos Públicos que este cambio en la ley “impulsará la capacitación técnica de fiscales, jueces y policías” para garantizar que la evidencia digital se conserve adecuadamente.
Además, la norma exige que la Fiscalía General de la Nación garantiza la trazabilidad de los casos en los que se emplea IA para cometer falsedad personal, manteniendo un registro estricto sobre las metodologías y el impacto de estos fraudes.
Foto:iStock
El rostro y la voz hacen parte de los datos biometricos de identidad de cada persona, por tanto están protegidos por la ley y normas de hábeas data, máximo cuando se usan para cometer un eventual delito o estafa, según lo estipulado en la Ley 23 de 1982.
Incluso cuando no hay un fin económico directo, la creación de estos contenidos puede acarrear sanciones civiles. La protección del derecho a la imagen está consagrada en la Constitución y el Código Civil. El uso no autorizado de la imagen de una persona puede dar lugar a acciones legales por daños y perjuicios, por lo que ni siquiera las famosas ‘bromas’ o ‘caricaturas’ estarían fuera de las normas.
Recientemente la polémica se la llevó Grok, la inteligencia artificial de X, de Elon Musk, la cual permitió que una persona pudiera crear un deepfake de otra con solo pedirlo en un trino con la imagen de la víctima.
LEA TAMBIÉN

¿Cómo evitarlo?
Para evitar ser víctima de estos delitos, los expertos recomiendan desconfiar de videollamadas o audios que solicitan dinero de urgencia, incluso si la voz suena idéntica a la de un familiar. Es vital establecer ‘palabras clave’ de seguridad con el círculo cercano para verificar identidades. En caso de ser víctima, la denuncia debe realizarse de inmediato ante la Fiscalía General de la Nación o la Policía de Ciberdelitos. Es fundamental no borrar la evidencia: guarde los enlaces, capture pantallas y conserve los archivos originales. La nueva ley obliga a las autoridades a contar con protocolos de respuesta y desarrollos tecnológicos para la detección de estos fraudes. Limite también el acceso a sus redes sociales, con un perfil cerrado o bloqueado para nuevos seguidores. De este modo será más complejo para las tecnologías de IA acceder a sus fotos.
JOSÉ CARLOS GARCÍA R.
Editor multimedia
@JoséCarlosTecno
