La función aparece en versiones beta de la aplicación de Google y sugiere pausas tras sesiones largas con el chatbot, sin confirmar aún su llegada al público general.
Google sabe que los seres humanos tendemos a engancharnos a cosas a las que no deberíamos, lo que incluye también los modelos de lenguaje de IA e, inevitablemente, a Gemini. Es por eso que están probando un aviso para que el usuario se tome un descanso tras un uso prolongado del chatbot, una señal de que la Gran G está virando en lo que al consumo de IA se refiere y reorientando cómo los usuarios se relacionan con ella.
El mensaje se ha identificado en la versión beta 17.3.59 de la aplicación de Googlesegún han encontrado los compañeros de Autoridad de Android en uno de sus ya famosos análisis de código. Aparece como una notificación emergente con el texto “Tómate un breve descanso” y un recordatorio adicional: el usuario está interactuando con una inteligencia artificial que no es humana. Por lo que parece, se trata de un guiño para aterrizar al usuario en largas sesiones de conversación.
Un aviso simple que dice mucho sobre el rumbo de Gemini
Este es el mensaje que Google está probando en Gemini
Por ahora, no se conoce el criterio exacto que activa el mensaje. Google no ha especificado si se basa en el tiempo de uso, número de interacciones o contexto de la conversación, ni si el recordatorio podrá configurarse o desactivarse en el futuro. Tampoco hay confirmación oficial de que la función vaya a desplegarse más allá de esta fase de pruebas.
El enfoque recuerda a los recordatorios de descanso que Google utiliza en YouTube desde 2021, donde el usuario puede recibir avisos tras cierto tiempo de reproducción continuada. Sin embargo, en el caso de Gemini el matiz es distinto: el mensaje no solo sugiere parar, sino que claramente refuerza la idea de que el interlocutor no es una persona real.
En los últimos meses, Gemini ha ido ampliando su alcance dentro del ecosistema Android, integrándose con más servicios, aplicaciones y datos del usuario. A medida que el asistente gana contexto y continuidad, también aumenta el riesgo de que algunos usuarios establecerán una relación más personal o emocional con la herramientaalgo que Google parece querer prevenir de forma activa.
Esta decisión de Google se enmarca dentro de un debate cada vez más presente en el sector y del que ya hemos visto caer presa a OpenAI: hasta qué punto los modelos de lenguaje conversacionales pueden fomentar patrones de uso problemáticosespecialmente entre personas jóvenes o en contextos de problemas de salud mental, vulnerabilidad emocional. La Gran G no señala estos riesgos explícitamente, pero que te recuerden que Gemini no es humano parece ser una forma de curarse en salud ante futuros desastres.
Conviene subrayar que, a día de hoy, no hay indicios de que Géminis vaya a limitar las conversaciones ni a imponer pausas obligatorias. Todo apunta a una intervención ligera, pensada más para marcar límites simbólicos que para controlar el uso de la IA. Aun así, el simple hecho de que Google experimente con este tipo de mensajes revela un cambio de tono respecto a la etapa inicialdonde el foco estaba casi exclusivamente en aumentar capacidades y tiempo de interacción.
