La inteligencia artificial generativa, en concreto, apenas tiene una década de vida tal y como la conocemosaunque ya son muchísimas sus aplicaciones, desde chatbots en páginas web hasta herramientas en todo tipo de aspectos.
Está prácticamente en todas las partes, aunque sus inicios no fueron fáciles. El primer “asistente” de la historia llegó en 1966 con el nombre de ELIZA, un chatbot terapeuta creado por el Instituto Tecnológico de Massachusetts (MIT).
Más adelante, también se propusieron otros, como Parry, un compañero artificial que pudiera conversar con ELIZA, aunque siempre dentro de marcos profesionales; Parry era un chatbot con esquizofrenia paranoide.
Aunque estos y los siguientes tuvieron muchas limitaciones, amplificadas por la falta de investigación en el ámbito concreto de la IA. generativaasí como soluciones más reales que un simple chatbot que responde habitualmente con preguntas.
Los verdaderos avances llegarían con algunos nombres importantes, como el de Geoffrey Hinton, conocido como “padre de la IA moderna”, por su trabajo en el desarrollo de redes neuronales artificiales que imitaban el funcionamiento del cerebro humano.
Por supuesto, todo escaló y llegó al público masivo con el lanzamiento de ChatGPT por OpenAI en 2022. A pesar de las ventajas de la IA generativa, los modelos de lenguaje (LLM) que la alimentan continúan usándose con fines que dejan la ética a un lado, como ocurre con algunas tecnologías.
Ni la cara ni la voz son ya confiables
Allá por el verano de 2019, El diario de Wall Street publicó un ejemplo del uso de la clonación de voz para suplantar la identidad de otra persona, en un titular que calificaba este cibercrimen como “inusual”.
El caso fue muy mediático, ya que afectó a la identidad del CEO de una firma de energía de Reino Unido mediante el uso de IA para clonar su voz y estafar aproximadamente unos 220.000 euros.
En apenas 6 años, la clonación de datos personales y vitales tan importantes como la voz o el rostro no ha hecho más que mejorarhasta el punto de ser difícilmente reconocible el engaño.
Incluso aunque lo comprueben miles de personas al mismo tiempo, como ocurrió recientemente en Brasil con la cuenta de Instagram de Gisele Bündchen.
La Imagen real de este modelo brasileño fue usada por un grupo de criminales para crear un perfil falso y estafar más de 3 millones de euros a los seguidores.gracias al uso de un deepfake de Bündchen en un anuncio pagado, según compartido Reuters.
Más allá de la suplantación de identidad de personas conocidas o con influencia en la sociedad, artistas de todo tipo también han levantado su voz contra el uso de la IA generativa para creaciones artificiales, un hecho que afecta también a sus derechos de autor.
Quizás el ejemplo más viral fue el de las imágenes creadas con el estilo de Studio Ghibli en ChatGPT, un resultado con IA generativa, un concepto que el propio Hayao Miyazaki calificó como “un insulto a la misma vida” ya antes de lo ocurrido.
La IA también genera malware y escribe artículos científicos
En los últimos años, a la par que la IA generativa avanzaba, también perfeccionaban sus técnicas diferentes actores maliciosos, como el grupo de hackers patrocinados por Corea del Norte al que se conoce como Famous Chollima.
Bronceado solo en 2025, este grupo de cibercriminales ha cometido ataques dirigidos a 320 empresas, lo que representa un incremento del 220% respecto al año anteriorcon una técnica muy pulida, gracias a la creación de identidades falsas de trabajadores en procesos de contratación.
Identidades que crearon con herramientas potentes de IA generativa, y que lograron engañar a los empleados de recursos humanos.
Incluso la capacidad de la IA generativa ha desatado críticas en el ámbito de los papers científicos. Según publicó cableado en referencia a una investigación de Naturalezael 2% de los documentos que se presentan son rechazados por haber sido creados con IA.
Más allá de su uso para similares documentos oficiales, imágenes y vídeos, también ha crecido su utilización en la generación automática de código malicioso.con familias de malware destacadas, como SparkCat y FunkLocker, gracias a WormGPT.
En todo este contexto, tanto España como la Unión Europea ya han desarrollado marcos normativos. A pesar de ello, esta tecnología de poco más de 6 años de edad en su forma actual no para de avanzar, con lo que su legislación aún plantea debates abiertos.
