Zohran Mamdani como un espeluznante niño que pide dulces, Gavin Newsom azotando a Donald Trump y Hakeem Jeffries con un sombrero. Esto no es el preámbulo de una broma elaborada. En cambio, son ejemplos de videos políticos recientes generados por IA. Las nuevas herramientas fáciles de usar, y su aceptación por parte de los políticos, hacen que estos videos falsos se estén volviendo rápidamente comunes en la política estadounidense.
Quizás lo más interesante de muchos de los videos es su evidente falsedad. En lugar de intentar engañar al espectador haciéndole creer que el evento representado realmente ocurrió, los videos tienen un propósito diferente. El presidente Trump no publicó un video de sí mismo con una corona en un avión de combate arrojando heces sobre un grupo de manifestantes porque quisiera que la gente creyera que el vuelo realmente ocurrió. Probablemente lo hizo para expresar sus sentimientos sobre la protesta y generar una broma interna con sus seguidores.
El temor a las implicaciones políticas de los videos generados por IA ha existido desde que se acuñó el término deepfakes en 2017. Las constantes mejoras en la tecnología implican que distinguir lo real de lo falso podría convertirse en una amenaza significativa. Sin embargo, el uso actual de imágenes generadas por IA se centra principalmente en la creación de memes y la generación de ingresos; en otras palabras, contenido típico de redes sociales.
También lee: ¿Burbuja de IA? Opiniones divididas sobre la pregunta del billón de dólares en tecnología
Cómo provocar a la gente
Las plataformas de internet utilizan algoritmos diseñados para mantener a la gente enganchada, lo que generalmente implica promover contenido que despierta emociones. Los vídeos políticos generados por IA suelen provocar una respuesta emocional: diversión o indignación.
Es más probable que las personas compartan información cuando esta es emocionalmente estimulante. Por ejemplo, es más probable que compartan leyendas urbanas que provocan asco, y las noticias con carga emocional tienen más probabilidades de aparecer en la lista del New York Times de los artículos más enviados por correo electrónico. Patrones similares ocurren en línea, donde el contenido emocional tiene muchas más probabilidades de viralizarse que el contenido no emocional.
Además, las emociones intensas pueden interferir con la capacidad de las personas para detectar información falsa. Las personas tienen más dificultades para distinguir entre titulares políticos verdaderos y falsos cuando experimentan emociones más intensas, por ejemplo, entusiasmo, emoción o miedo. Por lo tanto, los vídeos generados por IA con un atractivo emocional tienen más probabilidades de difundirse y reducir la capacidad de las personas para discernir si son reales o falsos.
Política en línea
Crear y compartir videos de IA también es una forma poderosa para que las personas demuestren sus lealtades e identidades políticas. “Soy partidario de Trump, así que publico videos de IA de detenidos de ICE llorando para criticar a los liberales” o “Soy demócrata, así que comparto el video de IA del gobernador Newsom de JD Vance hablando de sofás para demostrar que me identifica con la broma”.
La novedad de los últimos meses es que las campañas y los políticos están utilizando videos creados con IA, no solo sus partidarios. Un análisis de The New York Times mostró que Trump suele usar imágenes de IA para “atacar a sus enemigos y animar a sus partidarios”.
Estas nuevas herramientas también permiten la participación activa en el proceso político. En lugar de simplemente observar a los políticos y votar, los ciudadanos pueden participar activamente en la conversación entre elecciones.
La investigadora de información y tecnología Kate Starbird ha escrito sobre dinámicas similares en las formas en que los estadounidenses comunes encontraron “pruebas” de fraude electoral en las elecciones de 2020. Los políticos advirtieron al público que se produciría fraude electoral, y cuando los opuestos vieron cosas que no entendieron al votar, como el uso de marcadores Sharpie para marcar las papeletas, interpretó esa acción como evidencia de fraude electoral. Posteriormente, difundieron esa evidencia en línea para respaldar la narrativa falsa.
Las nuevas herramientas de IA simplifican aún más este ciclo de desinformación participativa. En lugar de reinterpretar los hechos reales como evidencia de una afirmación falsa, las personas pueden generar fácilmente esa evidencia por sí mismas.
Te recomendamos: Disney invertirá 1,000 mdd en OpenAI y licenciará personajes para la herramienta Sora
Vídeos con IA a gran escala
Las herramientas de creación de vídeos con IA facilitan extraordinariamente la producción de cientos de vídeos, su publicación en línea y la simple observación de qué contenido se populariza y se viraliza. De hecho, eso es exactamente lo que parece haber ocurrido con los recientes vídeos generados por IA sobre redadas del Servicio de Inmigración y Control de Aduanas (ICE). De acuerdo con una investigación de 404 Media, el usuario de Facebook “USA Journey 897” solía publicar diversos vídeos reales de actividad policial, así como vídeos absurdos con IA de personas cargando ballenas y montando tigres.
Sin embargo, tras el lanzamiento de una nueva versión del generador de vídeos Sora de OpenAI el 30 de septiembre de 2025, la cuenta pasó a pública Múltiples vídeos falsos de deportaciones a diario. La mayoría de los vídeos acumularon cientos de millas de visualizaciones, y un vídeo falso de un empleado de Walmart detenido superó los 4 millones.
Normalmente, estas cuentas están alojadas en el extranjero y su objetivo es obtener ingresos a través de programas de incentivos para creadores. Estos incentivos crean un entorno donde las redes sociales ya no informan a la gente sobre el mundo, sino que sirven como un espejo de la risa, presentándonos el mundo que queremos ver, o al menos la versión del mundo que captará nuestra atención e indignación.
Fluyendo hacia internet
No siempre es fácil distinguir qué vídeos son reales y cuáles están generados por IA. Una auditoría reciente de la publicación Indicator reveló que las plataformas no suelen etiquetar correctamente el contenido generado por IA. Los investigadores publicaron más de 500 imágenes y vídeos generados por IA en Instagram, LinkedIn, Pinterest, TikTok y YouTube. Menos de un tercio estaban correctamente etiquetados como generados por IA, e incluso las publicaciones generadas por las propias herramientas de IA de la plataforma a menudo se pasaban por alto.
Durante años, el gran temor en torno a los deepfakes políticos era que engañaran a la gente haciéndoles creer que algo no había sucedido. Todavía podrían hacerlo, pero por el momento, los vídeos políticos generados por IA son una mezcla de entretenimiento y memes, intentos legítimos de persuasión y formas de captar la atención a cambio de dinero.
En otras palabras, ahora son como el resto de internet. La mayor parte de lo que vemos y compartimos tiene como objetivo entretener, parte informar y persuadir, y gran parte existe únicamente para monetizar nuestra atención.
*Lisa Fazio es profesora asociada de Psicología de la Universidad de Vanderbilt.
Este texto fue publicado originalmente en The Conversation
Inspírate, descubre y comparte. ¡Síguenos y encuentra lo que buscas en nuestro Instagram!
