Con la creciente popularidad de los chatbotsvarias empresas de tecnología han desarrollado programas específicos para responder preguntas de saludaunque advierten que no reemplazan la atención profesional.
LEA TAMBIÉN
En enero, OpenAI lanzó ChatGPT Saludun chatbot diseñado para analizar historiales médicos, aplicaciones de bienestar y datos de dispositivos wearables con el objetivo de responder preguntas médicas y de salud. Actualmente, el programa mantiene una lista de espera. Por su parte, antrópico ofrece funciones similares a través de su chatbot Claude para ciertos usuarios.
Ambas compañías subrayan que estos chatbots, conocidos como modelos de lenguaje extenso, no deben sustituir la atención profesional ni emplearse para diagnosticar enfermedades. Según afirman, las herramientas pueden resumir resultados de pruebas complejas, preparar al paciente para consultas médicas y analizar tendencias de salud importantes en los historiales médicos y métricas de aplicaciones.
Los chatbots no sustituyen la atención profesional ni deben usarse para diagnosticar enfermedades. Foto:iStock
LEA TAMBIÉN

Información personalizada y límites de los chatbots
Algunos médicos que han trabajado con ChatGPT Health consideran que estas plataformas ofrecen información más personalizada que una búsqueda convencional en internet, aunque reconocen que los sistemas no son infalibles y pueden generar errores o ‘alucinaciones’.
“La alternativa a menudo es no hacer nada, o que el paciente improvisa”, dijo el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Por eso creo que, si se usan estas herramientas con responsabilidad, se puede obtener información útil”.
Una ventaja de los últimos chatbots es que responden considerando el contexto del historial médico del usuario, incluyendo edad, recetas y notas de los médicos. Incluso si no se comparte esta información, se recomienda proporcionar todos los detalles posibles para obtener respuestas más precisas.
Pueden resumir resultados de pruebas complejas y ayudar a preparar para consultas médicas. Foto:iStock
LEA TAMBIÉN

Cuándo evitar la IA y atención médica
Los expertos advierten que Los chatbots no deben usarse en emergencias médicas.. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso requieren atención profesional inmediata.
En situaciones menos urgentes, los usuarios deben mantener “un grado de escepticismo saludable”, afirmó el Dr. Lloyd Minor de la Universidad de Stanford. “Si estás hablando de una decisión médica importante, o incluso de una decisión más pequeña sobre tu salud, nunca deberías confiar únicamente en lo que obtienes de un modelo de lenguaje amplio”, agregó Minor.
La información compartida con estos chatbots no está protegida por la ley federal HIPAA. Foto:iStock
LEA TAMBIÉN

Privacidad y manejo de datos médicos
Los chatbots requieren información personal para ofrecer respuestas detalladas, pero los datos compartidos no están protegidos por la ley federal de privacidad HIPAAque regula la información médica confidencial de hospitales, médicos y aseguradoras.
“Cuando alguien sube su historial médico a un modelo de lenguaje extenso, es muy diferente a entregárselo a un médico nuevo”, dijo Minor. “Los consumidores deben comprender que se aplican estándares de privacidad completamente diferentes”. OpenAI y Anthropic afirman que los datos de salud de los usuarios se mantienen separados de otros tipos de información y no se utilizan para entrenar modelos. Los usuarios pueden aceptar compartir sus datos y desconectarse en cualquier momento.
No se recomienda usar chatbots para emergencias médicas. Foto:iStock
LEA TAMBIÉN

Limitaciones y pruebas de efectividad.
Los estudios sobre chatbots de salud aún son preliminares. Un análisis de la Universidad de Oxford con 1.300 participantes mostró que las personas que consultaron chatbots para condiciones hipotéticas no tomaron mejores decisiones que quienes usaron búsquedas en línea o su propio criterio.
Los chatbots identifican correctamente la condición subyacente en un 95% de los escenarios escritos, pero presentaron problemas durante la interacción con los usuarios reales. “Ese no fue el problema”, dijo Adam Mahdi, del Oxford Internet Institute. “El punto donde todo se vino abajo fue durante la interacción con los participantes reales”.
Entre los problemas detectados, los usuarios a menudo no proporcionaban suficiente información, y los chatbots respondían mezclando datos positivos y negativos, dificultando la interpretación correcta.
Comparar respuestas de distintos chatbots puede servir como una especie de segunda opinión. Foto:iStock
LEA TAMBIÉN

Segunda opinión y mejores prácticas.
Wachter considera que la capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área con margen de mejora. “Creo que esto mejorará realmente cuando las herramientas se vuelvan un poco más médicas en la forma de interactuar con los pacientes”, dijo.
Una manera de aumentar la confianza en la información recibida es consultar distintos chatbots, similar a obtener una segunda opinión médica. “A veces introduzco información en ChatGPT y en Gemini”, comentó Wachter. “Y cuando ambos coinciden, me siento un poco más seguro de que es la respuesta correcta”.
Agencia AP
Más noticias en EL TIEMPO
*Este contenido fue reescrito con la asistencia de una inteligencia artificial, basado en información de AP, y contó con la revisión de la periodista y un editor.
