De un tiempo a esta parte, las empresas de tecnología han demostrado no tener ningún inconveniente con llegar a sus objetivos en materia de inteligencia artificial pasando por altas ciertas circunstancias y consecuencias. Ahora, un estudio subraya su falta de ética y empatía.
El análisis, conocido como Índice de seguridad de IA para el invierno de 2025, publicado por la organización sin fines de lucro Future of Life Institute (FLI), se ha encargado de evaluar ocho importantes empresas de IA. Entre ellas, Anthropic, OpenAI, xAI y Google DeepMindpor citar algunas.
En primer lugar, este estudio avanza que las empresas de IA más grandes del mundo no están cumpliendo con sus propios compromisos de seguridad, unos fallos que conllevan riesgos “catastróficos”. Y lo cierto es que ya los hemos visto, porque son muy sonados los casos de chatbots que están causando daños psicológicos.
Tanto es así que los psicólogos. ya han levantado la hacha de guerra contra ChatGPT y otras herramientas similares para dar como auténticas informaciones que no lo son, así como para crear hábitos de “dependencia digital”, que se están volviendo cada vez más frecuentes.
Ahora, estos profesionales tienen más motivos que nunca para desconfiar de estas plataformas inteligentes, debido a que el comentado estudio apunta a una clara falta de estrategias creíbles para prevenir el uso indebido de esta tecnología, así como para perder el control a medida que estas empresas se dirigen hacia la IA general (AGI).
Cero control humano sobre sistemas de IA de altas capacidades
La AGI es una forma avanzada de inteligencia artificial que tiene la capacidad de comprender, aprender y resolver tareas de manera similar o incluso superior a la inteligencia humana.
Esto significa que, si se cumplen las previsiones de este tipo de empresas, llegaremos a disponer de una tecnología que podrá sustituir fácilmente a las personas y tomar así el control de todo tipo de tareas. El panorama no es muy esperanzador, desde luego.
A pesar de ello, ninguna de las empresas que compiten por conseguirla han elaborado. un plan comprobable para mantener el control humano sobre estos sistemas de alta capacidad, tal y como ha señalado Stuart Russell, profesor de informática de la Universidad de California en Berkeley (Estados Unidos).
“Busco pruebas de que pueden reducir el riesgo anual de pérdida de control a uno entre 100 millones, en consonancia con los requisitos de los reactores nucleares”, ha indicado este experto en el documento, sorprendido de que estas organizaciones “admiten que el riesgo podría ser de uno entre diez, uno entre cinco, incluso uno entre tres”.
La implementación de un plan de seguridad es “inconsistente”
Para elaborar el estudio, los analistas evalúan los métodos de actuación de las comentadas empresas en seis áreas críticas, como son la evaluación de riesgos, los marcos de seguridad, la seguridad existencial, la gobernanza y la responsabilidad, por citar algunos.
Cada empresa mostró sus carencias en los comentados apartados. Por ejemplo, en el estudio se critica a Anthropic por no continuar con ensayos de mejora humana y dirigirse hacia un entrenamiento en interacciones de usuario por defecto.
OpenAI, por su parte, dispone de seguridad algo ambiguo, pero carece de suficiente supervisión independiente durante los procesos de generación de contenidos.
Google DeepMind, en cambio, sí cuenta con evaluadores externos, que le han permitido mejorar su marco de seguridad. Sin embargo, estas personas reciben una compensación económica por su valoración, de manera que puede socavar su independencia y libertad de expresión.
Otras empresas, como xAI, sí que han verbalizado tener interés en mejorar su apartado de seguridad y crear un marco estructuradopero, por el momento, es limitado y carece de desencadenantes de mitigación claros.
Por último, Meta ha incorporado un nuevo marco de seguridad fronteriza con umbrales basados en resultados, pero los revisores dijeron que deben aclarar las metodologías y compartir procesos de evaluación interna y externa más sólidos.
