La polémica por las imágenes sexualizadas generadas por inteligencia artificial no es nueva (en España la conocemos de cerca desde el caso de Almendralejo), pero desde finales del año pasado vuelve a estar en el foco mediático. El detonante fue Grok, el chatbot vinculada a la empresa de IA de Elon Musk, que permitía producir desnudos falsos y escenas explícitas a partir de simples peticiones de texto, incluso en menores. Aquello abrió investigaciones, peticiones de retirada de contenidos y un debate global sobre los límites de estas herramientas.
Pero el problema no se limita a un único chatbot ni a plataformas experimentales. Según una investigación reciente, este tipo de funciones está hoy al alcance de cualquiera a través de aplicaciones que se pueden descargar directamente desde las tiendas oficiales de móviles.
un analisis del grupo independiente Proyecto de transparencia tecnológica (TTP) ha identificado más de un centenario de aplicaciones que permiten desnudar digitalmente a una persona o colocar su cara en fotos y vídeos sexualizados. Las encontraron disponibles en las tiendas oficiales de Manzana y Googlepese a que ambas prohíben expresamente este tipo de contenido en sus normas.
La investigación ha demostrado que una simple búsqueda de términos como «desvestir» o «desnudar» en la Play Store o App Store basta para encontrar una larga lista de software Diseñado específicamente para crear pornografía. profundo no consensuada.
Y sí: lo que ha descubierto TTP no es un fenómeno limitado a las tiendas de aplicaciones en Estados Unidos, sino que está ocurriendo a nivel global, es decir, también en Europa y España.
Cientos de millones de descargas
TTP ha localizado decenas de estas aplicaciones repartidas entre ambas plataformas móviles. En concreto, identificarse 55 aplicaciones es Google Play Store “que pueden desvestir digitalmente a mujeres y mostrarlas total o parcialmente desnudas, en bikini u otra prenda mínima” y otras 47 similares en la App Store de Apple. “Esto significa que los usuarios de Android y Apple tienen acceso a docenas de aplicaciones que pueden crear imágenes sexualizadas y no consensuadas de mujeres”, afirma la investigación.
En conjunto superan los 700 millones de descargas y han generado alrededor de 117 millones de dólares en ingresos. mediante suscripciones y compras dentro de la propia aplicaciónsegún AppMagic, una firma de análisis de aplicaciones.
Los investigadores afirman que “esto significa que Google y Apple se benefician” de este tipo de aplicacionesya que “ambas compañías se llevan una comisión de hasta el 30 % en compras dentro de la aplicación, como las suscripciones”.
Otro punto delicado es la clasificación por edades. El estudio detecta casos en los que estas aplicaciones figuraban como aptas para adolescenteslo que reduce las barreras de acceso para menores.
El informe señala además que varias de estas aplicaciones se promocionan abiertamente con ejemplos explícitos dentro de sus propias fichas en la tienda.
¿Qué tipo de imágenes generan estas aplicaciones?
El funcionamiento es directo: el usuario sube la imagen de una persona y el sistema produce una versión sexualizada generado por IA. Algunas herramientas van más allá y crean deepfakes en vídeo colocando el rostro de la víctima sobre el cuerpo de otra persona en escenas específicas.
El resultado no es una foto real, pero puede parecerlo lo suficiente como para engañar, difamar o acosar. Y todo se hace en segundos, sin conocimientos técnicos y desde un teléfono móvil.
¿Qué dicen Apple y Google?
Tanto Apple como Google prohíben en sus políticas las aplicaciones con pornografía o desnudos no consentidos. Sobre el papel, este tipo de herramientas no debería pasar los filtros de revisión. Sin embargo, el informe concluye que la aplicación de esas reglas es inconsistente.
Tras hacerse público el análisis, ambas compañías retiraron parte de las aplicaciones señaladas y anunciaron revisiones adicionales:
“Google y Apple solicitaron la lista de aplicaciones identificadas en esta investigación, la cual TTP proporcionó. Ambas compañías declinaron hacer comentarios, pero Apple declaró a CNBC, que cubrió este informe, que había eliminado 28 aplicaciones identificadas por TTP y advirtió a los desarrolladores de otras aplicaciones que se arriesgaban a ser eliminadas si no abordaban las infracciones”, explica la investigación, indicando que se contabilizaron 27 eliminaciones de aplicaciones.
TTP también señala que “Google informó a CNBC que había suspendido varias aplicaciones durante una revisión en curso. Horas después, Google había eliminado 31 aplicaciones”.
¿Ocurre también en España?
Las aplicaciones analizadas se publican en las mismas tiendas que usan millones de personas en todo el mundo. Salvo que existe un bloqueo geográfico específicouna aplicación aprobados en estos escaparates digitales suelen estar disponibles en decenas de países a la vez.
Por eso, cuando el informe habla de cientos de millones de descargas no se refiere a un único mercado nacional, sino al cómputo global. En la práctica, cualquier usuario europeo, incluido uno en España, puede encontrarse con estas herramientas al buscarlas en su móvil si la aplicación no ha sido retirada o limitada localmente.
Esto convierte el fenómeno en un reto internacional.
