Se venía hablando mucho en los últimos meses y OpenAI lo ha hecho oficial. La compañía detrás de la inteligencia artificial más famosa del mundo acaba de anunciar una función que permite que los usuarios conecten sus registros médicos y datos de bienestar directamente a ChatGPT. Esto hace que la IA nos ayude y tenga más contextos sobre nosotros, pero tiene un gran riesgo.
Hace unas horas, el gigante tecnológico con sede en San Francisco ha hecho oficial ChatGPT Salud. La herramienta, desarrollada en colaboración con médicos, no pretende diagnosticar ni tratar enfermedades, sino ayudar a los usuarios a «entender mejor su salud» y servir de apoyo al cuidado médico. Eso sí, de momento solo está disponible para unos pocos usuarios y hay lista de espera, sin importar si eres o no cliente premium.
Sin embargo, la mera idea de volcar radiografías, análisis de sangre o historiales de salud mental en los servidores de una empresa privada de IA ha hecho saltar todas las alarmas entre los defensores de la privacidad. La conveniencia podría estar pagando a un precio demasiado alto: la seguridad de nuestra información más íntima.
¿Hay riesgo real para tus datos?
OpenAI es consciente del campo minado en el que se adentra, y por ello, en su anuncio han intentado adelantarse a las críticas curándose en salud. Según la información recogida por el medio especializado Descifrarla compañía asegura que ChatGPT Health solo comparte «información de salud objetiva» y no dará consejos médicos personalizados o que puedan generar dudas.
Para calmar los nervios, OpenAI ha subrayado tres pilares de seguridad:
- Los datos de salud en ChatGPT Salud están encriptados por defecto.
- Estos datos se guarda de forma separada del resto de tus chats habituales.
- Además, no se utilizan para entrenar sus modelos.
Además, ante preguntas de riesgo, el sistema está programado para ofrecer información de alto nivel, señalar posibles peligros o riesgos e instar al usuario a acudir a su médico de cabecera oa un hospital. De hecho, la compañía ya sabe que su herramienta se usa para temas de crucial importancia. Tanto es así que en octubre informó que más de un millón de usuarios hablan sobre el suicidio con ChatGPT cada semana.
Presentamos ChatGPT Health: https://t.co/HnzAoH6UtV https://t.co/qLYFSAxyZW
07 de enero de 2026 • 20:30
Pero a pesar de todas estas promesas, los expertos no están convencidos, y no es para menos, ya que el problema, además de técnico, es legal. JB Branch, defensor de la responsabilidad tecnológica en Public Citizen, explicó a Descifrar que las propias vigilancias que hacen las empresas sobre los datos, sobre todo cuando es información sanitaria, no son suficientes, y su importancia es todavía más sensible.
Branch también advierte de que los usuarios no saben cómo se usan y se guardan sus datos, dado que no hay límites legales claros establecidos y una supervisión real, por lo que el riesgo de un mal uso es real.
Vacío legal del que se aprovechan
Andrew Crawford, del Centro para la Democracia y la Tecnología, señala una Descifrar un error de concepto fundamental que tenemos los ciudadanos: asumimos que los datos de salud están protegidos por su naturaleza sensible, pero la protección depende de quién los custodia.
Por suerte, a diferencia de lo que ocurre en Estados Unidos, donde existe un vacío legal enorme dependiendo de quién tenga tus datos, en España y Europa el escenario es radicalmente distinto. Podemos decir que, al menos sobre el papel, es mucho más seguro, pero tiene su truco. Aquí contamos con el paraguas del RGPD, que protege la información sanitaria, considerada de categoría especial.
Pero no quiere decir que estemos a salvo, porque aquí el peligro está en el consentimiento explícito. Al aceptar sin ser conscientes ni leer bien la letra pequeña, se da todo el permiso del mundo a que hagan lo que quieran con nuestros datos.
Preguntas frecuentes sobre ChatGPT Salud Es una nueva función de OpenAI que permite a los usuarios conectar sus registros médicos y datos de bienestar con ChatGPT para obtener ayuda y un mejor entendimiento de su salud, sin ofrecer diagnósticos.
Hay riesgos importantes. Aunque OpenAI afirma que los datos están cifrados, separados y no se usan para entrenar sus modelos, los expertos advierten sobre posibles malos usos y vacíos legales.
Según el comunicado oficial de OpenAI, los datos de salud proporcionados a través de ChatGPT Health no se utilizan para el entrenamiento de sus modelos de inteligencia artificial.
¿Qué es exactamente ChatGPT Health?
¿Es seguro compartir mis datos médicos con esta herramienta?
¿Utiliza OpenAI mis datos de salud para entrenar sus modelos de IA?
