Desde hace ya algún tiempo, los vídeos e imágenes generados mediante inteligencia artificial están proliferando en redes sociales y plataformas, con un gran peligro para identificar los contenidos reales.
Para solventar este tipo de situaciones, el nuevo Reglamento Europeo de Inteligencia Artificial –que llega algo tarde– obligará a creadores de contenido a etiquetar esto de forma clara desde agosto de 2026, fecha de aplicación definitiva.
Esta normativa no solo se centra en la etiqueta que se suele ver habitualmente en este tipo de contenidos, “generado por IA”, sino también en datos técnicos que puedan identificar las máquinas para evitar la desinformación.
A día de hoy, con el avance en los modelos detrás de herramientas accesibles para todo el mundo, como pueden ser Veo o Nano Banana, se ha convertido en una odisea navegar por plataformas como TikTok e Instagram sin toparse con un contenido de este tipo.
Desde animales ficticios, como monos que se han creado su propio perfil para probar comida hasta gatos que molestan de noche a sus dueños con dotes de multiinstrumentalistas, pasando por la serie de vídeos de Cristiano Ronaldo y Messi.
Todos estos ejemplos se pueden identificar fácilmente como IA, aunque en otros casos puede ser algo complicado saber si un contenido ha sido generado con este tipo de tecnología. Así los sabrás identificar.
Cómo saber si un vídeo de TikTok ha sido hecho con IA
A la fecha de este artículo, en los términos de uso de TikTok sobre contenido generado por IA, aparecen algunas cuestiones a tener en cuenta para comprender por qué algunos contenidos no llevan esta etiqueta.
En los mismos, se apela a la voluntad de los creadores de contenido para etiqueta como IA en publicaciones de diversas formas, como en el propio texto incluido, un sticker de hashtag o directamente en la descripción del vídeo.
En caso de que un creador no etiqueta esto como tal, TikTok puede aplicar automáticamente la etiqueta al contenido identificado como talasí como tomar medidas contra la cuenta de este creador.
Curiosamente, me he topado con muchísimos vídeos generados por IA que no tenían esta etiqueta y que, de una u otra forma, aprovechan un vacío legal, sin etiquetar como tal el contenido, y simplemente poniendo Sora en un hashtag.
Sora, por si no lo sabes, es el modelo de IA para imágenes de OpenAI, la misma que ChatGPT, aunque es probable que no todos los usuarios conozcan que esta herramienta es de este tipo.
Por ello, es habitual encontrarse con numerosos vídeos que, con la aplicación estricta del Reglamento Europeo de IA, no podrían mantenerse tal y como están. Si te aparecen, sigue estos consejos para lograr identificarlos:
- Revisa bien la descripción. TikTok obliga a etiquetar los contenidos generados por IA, como ya hemos mencionado, por lo que podría aparecer una etiqueta en la descripción, en el texto del propio vídeo o en los hashtags.
- Accede a los comentarios de la publicación.. En TikTok, siempre conviene revisar los comentarios de otros usuarios, ya que te darán pistas de cualquier vídeo. En el caso concreto de la IA, seguramente te topes con alguno que mencione que el vídeo ha sido creado con IA; si no hay ninguno, pregunta, ya que muchos usuarios estarán dispuestos a ayudarte.
- Ingrese al perfil del creador. Si la cuenta en cuestión comienza con la palabra “usuario” seguida de números, simplemente desconfía en cualquier publicación. Además, accede al perfil del creador de la publicación y comprueba si tiene una biografía, si etiqueta su contenido como IA o si tiene enlaces externos de confianza.
- Analiza el contenido. A pesar de que las herramientas de vídeo con IA han mejorado hasta el punto de ser difíciles de diferenciar, aún existen detalles que puedes revisar, como los detalles del fondo, movimientos poco naturales o falta de la calidad adecuada.
- Contrasta las fuentes. Si el contenido es un hecho noticioso o muestra a celebridades, lo mejor es revisar en Google u otro buscador de noticias de medios confiables que hayan hablado del tema. Así, no serás otro cómplice en la propagación de un bulo.
- Usa una herramienta externa. Gemini o ChatGPT pueden identificar si un vídeo ha sido creado con su modelo, por lo que la prueba más confiable, el último paso, podría ser descargar la publicación y preguntar a estos asistentes de IA.
Siguiendo estos pasos, podrás descubrir si un contenido ha sido generado con IA y no está etiquetado como tal.
No obstante, incluso con la última revisión por otros modelos de IA, aún podría ser un contenido de este tipo; en tal caso, el mejor consejo, si no ha encontrado fuentes externas, es desconfiar.
