La IA generativa se entrenó con siglos de arte y escritura producidas por humanos.
Pero científicos y críticos se han preguntado qué pasaría una vez que la IA se adoptara de manera generalizada y empezara a entrenarse con sus propios resultados.
Un nuevo estudio ofrece algunas respuestas.
En enero de 2026, los investigadores de inteligencia artificial Arend Hintze, Frida Proschinger Åström y Jory Schossau publicaron un estudio que muestra qué ocurre cuando los sistemas de IA generativa se dejan funcionar de manera autónoma, generando e interpretando sus propios resultados sin intervención humana.
Los investigadores vincularon un sistema de texto a imagen con un sistema de imagen a texto y los dejaron iterar —imagen, descripción, imagen, descripción— una y otra vez.
Independientemente de la diversidad de los indicadores iniciales y del grado de aleatoriedad permitido, los resultados convergieron rápidamente hacia un conjunto limitado de temas visuales genéricos y familiares: paisajes urbanos atmosféricos, edificios grandiosos y paisajes pastorales. Aún más sorprendente, el sistema “olvidó” rápidamente el aviso inicial.
Los investigadores denominaron a los resultados “música de ascensor visual”: agradables y pulidos, pero sin un significado real.
Por ejemplo, comenzaron con el mensaje: “El Primer Ministro revisaba documentos estratégicos, tratando de vender al público un frágil acuerdo de paz mientras lidiaba con la presión de su carga ante una acción militar inminente”. La imagen resultante fue luego subtitulada por la IA, y ese subtítulo se usó como aviso para generar la siguiente imagen.
Tras repetir este ciclo varias veces, los investigadores obtuvieron una imagen insípida de un espacio interior formal: sin personas, sin drama, sin sentido real de tiempo o lugar.
Como científico de la computación que estudia modelos generativos y creatividad, considera que los hallazgos de este estudio son un aporte importante al debate sobre si la IA conducirá a la estancación cultural.
Los resultados muestran que los sistemas de IA generativa tienden a la homogeneización cuando se usan de manera autónoma y repetida. Incluso sugiere que los sistemas de IA ya operan de esta manera por defecto.
Infórmate: Inteligencia artificial, con acento latino
Lo familiar es lo predeterminado
Este experimento podría parecer irrelevante: la mayoría de las personas no pide a los sistemas de IA que describen y regeneran indefinidamente sus propias imágenes. La convergencia hacia un conjunto de imágenes genéricas ocurrió sin reentrenamiento. No se agregó ningún dato nuevo. Nada se aprendió. El colapso surgió únicamente del uso repetido.
Pero el diseño del experimento puede verse como una herramienta de diagnóstico: revela qué preservan los sistemas generativos cuando nadie interviene.
Esto tiene implicaciones más amplias, porque la cultura moderna está cada vez más influenciada por este tipo de flujos de trabajo: las imágenes se resumen en texto, el texto se convierte en imágenes, el contenido se clasifica, filtra y regenera mientras pasa entre palabras, imágenes y videos. Los artículos en la web ahora tienen más probabilidades de ser escritos por IA que por humanos. Incluso cuando los humanos permanecen en el proceso, a menudo eligen entre opciones generadas por IA en lugar de crear desde cero.
Los hallazgos muestran que el comportamiento predeterminado de estos sistemas es comprimir el significado hacia lo más familiar, reconocible y fácil de regenerar.
¿Estancamiento cultural o aceleración?
En los últimos años, los escépticos han advertido que la IA generativa podría provocar estancamiento cultural al inundar la web con contenido sintético que luego entrenará a futuros sistemas de IA. Con el tiempo, argumentan, este ciclo recursivo reduciría la diversidad y la innovación.
Los defensores de la tecnología replican que los miedos al declive cultural acompañan a cada nueva tecnología. Los humanos, sostienen, siempre serán el árbitro final de las decisiones creativas.
Lo que ha faltado en este debate es evidencia empírica que muestre dónde comienza realmente la homogeneización.
El nuevo estudio no prueba el reentrenamiento con datos generados por IA; muestra algo más fundamental: la homogeneización ocurre incluso antes de que entre en juego el reentrenamiento. El contenido que los sistemas de IA generativa producen de manera autónoma y repetida ya está comprimido y es genérico.
Esto replantea el argumento del estancamiento: el riesgo no es solo que los modelos futuros entrenen con contenido generado por IA, sino que la cultura mediada por IA ya se filtra de formas que favorecen lo familiar, lo descriptible y lo convencional.
El reentrenamiento amplificaría este efecto, pero no es su origen.
Te puede interesar: ChatGPT detectará a menores de edad y permitirá contenido para adultos
No se trata de una alarma moral.
Los escépticos tienen razón en una cosa: la cultura siempre se ha adaptado a las nuevas tecnologías. La fotografía no mató la pintura, el cine no mató el teatro. Las herramientas digitales han permitido nuevas formas de expresión.
Pero esas tecnologías anteriores nunca obligaron a que la cultura se reconfigurara constantemente a escala global a través de distintos medios. No resumían, regeneraban y clasificaban productos culturales —noticias, canciones, memes, artículos académicos, fotos o publicaciones en redes sociales— millones de veces al día, guiados por las mismas suposiciones sobre lo que es “típico”.
El estudio muestra que cuando el significado se fuerza a través de estos flujos de manera repetida, la diversidad colapsa, no por malas intenciones, diseño malicioso o negligencia corporativa, sino porque solo ciertos tipos de significado sobreviven a las conversiones repetidas de texto a imagen y de vuelta a texto.
Esto no significa que el estancamiento cultural sea inevitable. La creatividad humana es resiliente. Instituciones, subculturas y artistas siempre han encontrado formas de resistir la homogeneización. Pero, en mi opinión, los hallazgos muestran que el estancamiento es un riesgo real —no una especulación— si los sistemas generativos se dejan operar como están actualmente.
También ayuda a aclarar un concepto erróneo común sobre la creatividad de la IA: producir variaciones infinitas no es lo mismo que producir innovación. Un sistema puede generar millones de imágenes explorando solo un pequeño rincón del espacio cultural.
En mi propia investigación sobre IA creativa, descubrí que la novedad requiere diseñar sistemas de IA con incentivos para desviarse de las normas. Sin eso, los sistemas optimizan hacia la familiaridad porque eso es lo que han aprendido mejor. El estudio refuerza este punto empíricamente: la autonomía por sí sola no garantiza la exploración; en algunos casos, acelera la convergencia.
Este patrón ya se ha observado en el mundo real: un estudio encontró que los planos de lecciones generadas por IA mostraron la misma deriva hacia contenido convencional y poco inspirador, subrayando que los sistemas tienden hacia lo típico más que hacia lo único o creativo.
Te puedes gustar: Spotify lanza una ‘lista de reproducción impulsada por IA’ para usuarios premium
Pérdida en la traducción
Cada vez que escribe un subtítulo para una imagen, se pierden detalles. Lo mismo ocurre al generar una imagen a partir de texto. Y esto sucede tanto si lo hace un humano como una máquina.
En ese sentido, la convergencia observada no es un fallo exclusivo de la IA; refleja una propiedad más profunda de pasar de un medio a otro. Cuando el significado pasa repetidamente entre dos formatos, solo persisten los elementos más estables.
Pero al resaltar lo que sobrevive durante las traducciones repetidas entre texto e imágenes, los autores muestran que el significado dentro de los sistemas generativos se procesa con una inclinación silenciosa hacia lo genérico.
La implicación es seria: incluso con guía humana —ya sea escribiendo avisos, seleccionando resultados o refinando resultados— estos sistemas siguen eliminando algunos detalles y amplificando otros de manera orientada hacia lo “promedio”.
Si la IA generativa va a enriquecer la cultura en lugar de aplanarla, los sistemas deben diseñarse para resistir la convergencia hacia resultados estadísticamente promedio. Debe haber incentivos para desviarse y apoyo para formas de expresión menos comunes y menos convencionales.
El estudio deja claro algo: sin estas intervenciones, la IA generativa comenzará derivando hacia contenido mediocre y poco inspirador.
El estancamiento cultural ya no es una especulación. Ya está ocurriendo.
* Ahmed Elgammal es profesor de Ciencias de la Computación y Director del Laboratorio de Arte e IA de la Universidad de Rutgers.
Este artículo fue publicado originalmente por The Conversation
Sigue la información de la tecnología en nuestra sección especializada
