Los sistemas de chatbots de IAcomo ChatGPTClaude y Copilot, se utilizan cada vez más como confidentes de elección. Sin embargo, recurrir a los chatbots de IA para obtener compañía y apoyo emocional es motivo de preocupación, especialmente entre las personas más jóvenes, según comentan expertos del Great Ormond Street Hospital for Children (Reino Unido) en la edición de Navidad de The BMJ.
Advierten de que «podríamos estar presenciando una generación que está aprendiendo a formar» vinculos emocionales con entidades que carecen de capacidades de empatía, cuidado y sintonía relacional similar a las humanas», y señalan que las estrategias basadas en la evidencia para reducir el aislamiento social y la soledad hijos primordiales.
En 2023, el director general de Salud Pública de Estados Unidos declaró que el país estaba experimentando una epidemia de soledadque constituía un problema de salud pública comparable al tabaquismo y la obesidad.
En el Reino Unidocasi la mitad de los adultos (25,9 millones) afirman sentirse solos ocasionalmente, a veces, siempre oa menudo, y casi uno de cada diez experimentos. soledad cronica (definida como sentirse solo «a menudo o siempre»). Los jóvenes (de 16 a 24 años) también se ven afectados.
Dadas estas tendencias, no es de extrañar que muchos busquen fuentes alternativas de compañía y apoyo emocionalafirman los autores. ChatGPTpor ejemplo, cuenta con alrededor de 810 millones de usuarios activos semanales en todo el mundo, y algunos informes sitúan la terapia y la compañía como una de las principales razones de uso.
Entre los jóvenes, un estudio descubrió que un tercio de los adolescentes EE.UU compañeros de IA para la interacción social; uno de cada diez informó que las conversaciones con IA son más satisfactorias que las conversaciones humanas, y uno de cada tres señaló que elegiría compañeros de IA en lugar de humanos para conversaciones serias.

A la luz de esta evidencia, los investigadores señalan que parece prudente considerar el uso problemático Delaware chatbots como un nuevo factor de riesgo ambiental al evaluar a un paciente con alteraciones del estado mental.
En estos casos, propone que los médicos comiencen con una pregunta amable sobre el uso problemático del chatbot, en particular durante los períodos vacacionales, cuando las poblaciones vulnerables corren un mayor riesgo, seguido, si es necesario, de preguntas más específicas para evaluar los patrones de uso compulsivo, la dependencia y el apego emocional.
Aportes
Reconocen que la IA podría aportar beneficios para mejorar la accesibilidad y el apoyo a las personas que experimentan. soledady señalan que se necesitan estudios empíricos.
esto “para caracterizar la prevalencia y la naturaleza de los riesgos de las interacciones entre humanos y chatbotsdesarrollar competencias clínicas para evaluar el uso de IA por parte de los pacientes, implementar intervenciones basadas en la evidencia para la dependencia problemática y defensora marcos regulatorios que prioricen el bienestar a largo plazo sobre métricas de participación superficiales y miopes”, concluyen los autores.
