ir al médico ya no es cosa de dos, doctor y paciente. En medio está, cada vez más, la inteligencia artificial. Más de 230 millones de personas en todo el mundo acuden cada semana a ChatGPT para consultas sobre su salud. Esa realidad, preocupante para muchos, no para de crecer. Abierto AI anunciado el miércoles una nueva función con la que impulsa a sus usuarios a compartir su historia clínica con el chatbot. Aunque la influyente start-up tecnológica asegura que no la ha diseñado para hacer diagnosticovarios expertos coinciden en anunciar que esta prestación despierta a varios dudas técnicas, jurídicas y éticas.
ChatGPT Salud (ChatGPT Saluden inglés) es un espacio “privado y cifrado” dentro del popular asistente conversacional de Iowa que permitirá “entender mejores los resultados de tus análisis, seguir tus datos de salud y prepararte para tu próxima cita médica”. Los usuarios podrán volver a sus datos medicos en el sistema, diseñado junto a más de 260 profesionales de la salud, pero también conectar los generados por aplicaciones como Salud de la manzana, Mi FitnessPal oh Pelotón. Por ahora, su acceso es limitado.
“Va a cometer errores, a generar malas interpretaciones ya poner al médico en una posición complicada”
Sedienta por rentabilizar sus inversiones, OpenAI está apostando por desplegar sus soluciones al ambiente sanitariodonde otros tipos de IA ya están jugando un papel destacado en la predicción del riesgo de enfermedades o en la gestión administrativa. “El acceso limitado a la atencion medicael estigma y la comodidad de obtener respuestas en casa reducen las barreras. Con tan poca fricción, la adopción se acelerará”, ha vaticinado la investigadora Shalini Kurapati. Esa oportunidad de negocio explica que este jueves también anunciase OpenAI para la atención sanitariauna serie de productos destinados a las organizaciones sanitarias.
Un paciente recibe la técnica HIFU en el Hospital Germans Trias (Can Ruti) de Badalona / Hospital Alemanes Trias
Errores que pueden costar vidas
Los modelos de lenguaje que dan forma a los chatbots de IA son probabilísticos y estocásticos, lo que significa que construyen frases para que sean plausiblespero no para que sean ciertos. Ese problema inherente a la llamada IA generativaconocido popularmente como alucinaciónhace que el uso de ChatGPT para cuestiones como la salud sea potencial “peligroso”advierte Alfonso Valenciaprofesor ICREA y director del Departamento de Ciencias de la Vida del Barcelona Supercomputer Center. Una investigación reciente de científicos de las universidades de Stanford y Harvard muestran que los modelos desplegados en el entorno sanitario fallan al no incluir recomendaciones críticas en hasta un 22% de los casos.
ChatGPT Health no estará disponible en la UE puesto que no está claro que cumpla la ley de IA
¿Qué pasa si un usuario comparte un cuadro de síntomas concretos y la aplicación le recomienda un tratamiento inadecuado? Aunque OpenAI asegura que la nueva función “no está diseñada para diagnosticar”, los expertos recuerdan que ChatGPT ya lo hace. “Va a cometer errores, a generar malas interpretaciones ya poner al médico en una posición complicada”, vaticina el directivo del BSC. “Eso abre la puerta a recomendaciones sobre tu salud marcadas por sesgo culturales o de raza”, añade Jorge Morellabogado especializado en Derecho de nuevas tecnologías.
En el campo de la salud, esos errores pueden “mandar a alguien al hospital” y, en definitiva, costar vidas. OpenAI y otras empresas que comercializan asistentes conversacionales de IA enfrentan varias demandas por el suicidio de usuarios. En algunas ocasiones, el chatbot instó a la víctima a ocultar sus intenciones a su familia. “Si las ha habido por cuestiones de salud mental también las habrá por recomendaciones clínicas incorrectas”, añade Morell.

Las clases profesionales, como los médicos, mantienen su capacidad de acceder a la élite. /Archivo
“Atentado contra la privacidad”
Por ahora, y como ya es habitual en el sector tecnológico, la última novedad de OpenAI no estará disponible en la Unión Europeapues no está claro que cumpla con el Reglamento General de Protección de Datos (RGPD) ni con la ley de IAque considera la aplicación de sistemas algorítmicos en el ámbito de la sanidad como de alto riesgo para los ciudadanos. En Europa, los datos de salud se consideran especialmente sensibles, lo que dificulta su tratamiento. “¿Qué pasa si un usuario comparte la historia clínica de sus padres o hijos? El reto será verificar si cuenta con su consentimiento específico para hacerlo”, señala Morell.
Otros expertos ven otros problemas. La nueva función es “para las compañías aseguradoras, para poder hacer mejores perfilados de sus posibles clientes y ajustar las cuotas y servicios”, ha asegurado la delegada de Protección de Datos y perito judicial. Laura San Miguelque considera esta nueva función un “atentado contra la privacidad brutal”. El pecado original, apunta Valencia, es “la cesión de nuestra identidad y autonomía a empresas estadounidenses”.

El ChatGPT es un chatbot de IA que utiliza modelos de lenguaje para comprender y generar texto de forma conversacional, como si hablaras con una persona real. / Frank Rumpenhorst / DPA /Archivo
¿Seguridad de los datos?
Por otro lado, OpenAI asegura que la información sensible que el usuario comparte con ChatGPT Salud quedará aislada del resto de conversaciones con el chatbot y no se utilizará para entrenar sus modelos de IA. Con esta declaración, la firma promete que se preservará la privacidad. No obstante, OpenAI podría sufrir una brecha de seguridad que exponga a sus usuarios. En 2023, ONU ciberataque a la ahora quebrada empresa genómica y biotecnológica 23yyo Logró robar datos genéticos de casi siete millones de personas. “Es cuestión de tiempo que eso suceda”, valora Morell. “La privacidad ha muerto en gran parte porque somos muy comodones”.
Aunque considera que “a largo plazo estas aplicaciones acabarán integrándose”, Valencia apuesta por otra IA en los centros médicos: sistemas informáticos que ayuden a los médicos a gestionar el trato a los pacientes, a interpretar los resultados o a tratar enfermedades, pero que lo hagan cumpliendo con las normas. El BSC se desarrolla junto al Hospital Sant Joan de Déu y con la ayuda de la Generalitat de Cataluña un sistema para ayudar a clasificar y contestar llamadas al sistema de emergencia primaria de menores. Sin embargo, lamenta, OpenAI y otras apps de autodiagnóstico “no les estamos exigiendo lo mismo que al resto del sector”.
Suscríbete para seguir leyendo
