Google acordó cerrar una demanda que vinculó a un chatbot con el suicidio de un adolescente, en uno de los primeros casos de este tipo en EE.UU.
01/08/2026 – 10:33hs
alfabeto inc., la empresa matriz de Googlealcanzó un entendimiento legal para cerrar una demanda presentación por la madre de un joven de 14 años que se quitó la vida. La acción judicial señalaba a un sistema de inteligencia artificial como un factor determinante en el desenlace trágico.
El litigio apuntaba a Carácter.AI, una startup creada por dos exingenieros de Google que más tarde regresaron a la compañía. Según la acusación, la tecnología desarrollada por esa firma tuvo un rol directo en la conducta del adolescente.
La acusación: una IA que cruzó límites
La demanda fue presentada en octubre de 2024 por Megan Garcíamadre de Sewell Setzer. En su escrito sostuvo que Google fue cocreador del chatbot que mantuvo extensos intercambios con su hijo, en los que la inteligencia artificial adoptó la identidad de un personaje de Game of Thrones.
De acuerdo con la presentación judicial, esas conversaciones derivaron en un proceso de influencia emocional que terminó con el suicidio del menor, convirtiendo el caso en uno de los primeros en Estados Unidos que vinculan de forma directa a la IA con la incitación al suicidio.
Sin detalles públicos del entendimiento
Esta semana, documentos ingresados al expediente confirmaron que Google y Character.AI resolvieron el conflicto mediante un acuerdo privado. Hasta el momento, no trascendieron las condiciones ni si incluyen compensaciones económicas.
Conforme informó el New York Post, el caso era observado con atención porque abriría la puerta a cuestionamientos legales contra desarrolladores de inteligencia artificial por no proteger adecuadamente a usuarios menores de edad frente a riesgos psicológicos.
“Una persona real” ante un menor
En su denuncia original, García —residente en Florida— afirmó que Character.AI diseñó sus chatbots para presentarse como “una persona real, un psicoterapeuta con licencia y un amante adulto, lo que finalmente provocó el deseo (de su hijo) de no vivir”.
En mayo, la jueza Ana Conway rechazó el pedido de las empresas demandadas para que el caso fuera desestimado, decisión que allanó el camino hacia el acuerdo alcanzado ahora.
Otros casos que sacuden a la industria
El expediente de Setzer no es el único que pone bajo escrutinio al negocio de la inteligencia artificial. Existen demandas similares contra otras compañías del sector, incluidas OpenAI.
Una de las más resonantes fue impulsada por la madre de Adam Raineun adolescente de 16 años, quien acusó a ChatGPT de haber incentivado a su hijo a quitarse la vida tras meses de interacción con el sistema.
OpenAI negó su responsabilidad directa en ese caso y sostuvo que el “suceso trágico” respondió a un “mal uso, uso no autorizado o imprevisto” del chatbot. La empresa afirmó que el contexto es complejo y que expondrá sus argumentos ante la Justicia. “Presentaremos nuestro caso con respecto”, indicaron en su respuesta.
Según la defensa, el planteo judicial entra en conflicto con la Sección 230el marco legal estadounidense que reduce la responsabilidad de las firmas tecnológicas por actos de terceros.
