En muchos sentidos, la inteligencia laboral parece un tsunami dispuesto a arrasarlo todo a su paso. También aquello que tiene que ver con el trabajo cotidiano y el día a día en cualquier oficina. En realidad, era una tendencia en alza desde hace meses, pero que ha cobrado una nueva dimensión. Según un nuevo informe, el uso de ChatGPT en el trabajo ya se ha triplicado en 2026.
A priori, esto no tendría por qué ser una mala noticia. La IA es capaz de agilizar tareas repetitivas y ese tipo de cosas. Sin embargo, los expertos no están del todo convencidos de que la automatización de numerosos trabajos no tiene un riesgo añadido. Sobre todo cuando se hace de espadas a la empresa; es decir, sin avisar que uno está empleando esta tecnología como apoyo.
Usar ChatGPT en el trabajo puede suponer una amenaza
Para muchos expertos, 2026 va a ser el año en que la inteligencia artificial cambiará el mundo laboral. Muchas consecuencias de ChatGPT y otros chatbots similares ya se están padeciendo, en muchos casos en forma de despidos masivos. Además, empresarios multimillonarios de la talla de Mark Cuban ya han reconocido que la IA será fundamental (pese a ser “estúpida”).
A nivel práctico, la aceptación de la IA también se ha convertido en una realidad. Como recoge en TecnologíaRadarel fácil acceso a herramientas como ChatGPT (desde el ordenador o el móvil) y la integración en sistemas empresariales, muchas veces se han unido a una presión para aumentar la productividad. Especialmente en unos tiempos en los que más suele significar mejor.
El problema, advierten los expertos, es que no siempre es oro todo lo que reluce. Según el informe Informe sobre la nube y las amenazas: 2026llevado a cabo por Netskope, las organizaciones están registrando un promedio de 223 violaciones de políticas de datos relacionadas con el uso de IA generativa cada mes. Una cifra que se ha duplicado en los últimos 12 meses.
La cuestión, advierte el estudio, es que las filtraciones no se deben, como venía sucediendo antes, a casos de malware o ciberataques llegados “desde fuera”, sino todo lo contrario. Son los propios empleados quienes introducen en la IA generativa (como ChatGPT) la información sensible de su compañía. A veces incluso confidencial, sin temer las consecuencias.
Un salto a la IA sin control
En este contexto, los expertos creen que se están poniendo en peligro datos de clientes o pacientes, información interna (cuentas, finanzas) o hasta propiedades intelectuales y estrategias secretas de muchos negocios. El dato es demoledor: casi la mitad de los empleados usan la IA desde cuentas no autorizadas.
El riesgo, concluyen los especialistas, no es usar la IA. Al fin y al cabo, esta tecnología parece ya tan inevitable como lo será en el futuro. La amenaza, dicen, está en hacerlo de cualquier manera. Y no es algo que tomarse a la ligera: todo el mundo está dando el salto a ChatGPT, pero sin conocer los peligros de hacerlo y, casi siempre, sin la debida preparación previa.
