Una filósofa de 37 años nacida en un pueblecito de Escocia es la única responsable en Anthropic de educar a su chatbot de inteligencia artificial, Claude. Amanda Askell, educada en Oxford, sigue teniendo el aspecto de la rebelde que fue. A los 14 años, la filosofía la salvó del abandono escolar y le dio un propósito en la vida, porque enseguida tuvo muy claro que quería dedicarse a enseñar la materia. Lo que no sabía es que acabaría educando a un único pupilo, y además no humano.
giro radical
Presionada por el Pentágono y la competencia, Anthropic rebaja sus garantías de seguridad en la IA
Al cargo de tan determinante trabajo en una de las principales compañías de inteligencia artificial (junto con OpenAI, Google y xAI), Askell estudia los patrones de razonamiento de Claude y habla con el chatbot para corregir sus errores y construir su personalidad. El objetivo es dotarlo de moralidad, algo así como un alma digital (si eso es posible) que pueda guiar los millones de conversaciones que puede tener cada semana con personas de todo el mundo. Ella compara de hecho su trabajo con el de los padres criando a sus hijos. Le enseña lo que está bien y lo que está mal, le instruye sobre cómo leer las señales más sutiles guiándolo hacia la inteligencia emocional, para que no se convierta ni en un abusón ni en alguien que se deja pisotear. Y, lo que puede parecer más sorprendente pero también es muy relevante, desarrolla la conciencia de Claude sobre sí mismo, con el objetivo de que no sea manipulado, intimidado, y en cambio se centre en ser útil y humano.
En un momento en que la IA está reconfigurando la economía y crece el temor a despidos masivos con su aplicación, en que algunas de sus consecuencias no intencionadas –como relaciones con chatbots que han llevado a suicidios– han disparado todas las alarmas, el trabajo de Askell con Claude cobra especial interés.
Padres del chatbot Claude
Anthropic fue creada hace cinco años por un grupo capitaneado por Dario Amodei, que abandonó OpenAI ante las diferencias sobre el enfoque moral de la IA.
Valorada en 350.000 millones de dólares, Anthropic fue creada hace cinco años por un grupo capitaneado por Dario Amodei, que abandonó OpenAI ante las diferencias con Sam Altman sobre el enfoque moral de la inteligencia artificial. Sus preocupaciones en torno a la seguridad de la IA frenaron el lanzamiento de una primera versión de Claude en 2022. Amodei temía iniciar una peligrosa carrera tecnológica sin haber todavía desarrollado suficientes garantías de seguridad. Sólo unas semanas después, OpenAI lanzó ChatGPT y le obligaba a ir por detrás.
En plena tensión con el Pentágono, que ha utilizado a Claude en la operación militar en Venezuela para capturar a Nicolás Maduro y que presiona a la compañía para utilizar su tecnología en más operaciones sin ningún tipo de reserva, Amodei insiste en que no se arrepiente de haber sido tan cauteloso en el lanzamiento de su chatbot.
La competencia, sin embargo, aprieta. OpenAI, xAI (la compañía de Elon Musk) y Google siguen desarrollando nuevas herramientas y ese ha sido el argumento esgrimido por Anthropic para explicar la marcha atrás anunciada esta semana en su compromiso con la seguridad. Si hasta ahora se había comprometido a pausar el desarrollo de modelos si podían considerarse peligrosos, ahora anuncia que abandonará esa política si un competidor presenta un modelo comparable o superior. Para la compañía, ese cambio radical en su política de seguridad es sólo una puesta al día necesaria ante la gran velocidad a la que se está desarrollando la IA, a lo que se suma la falta de regulación por parte de las autoridades. Amodei, de hecho, ha insistido repetidamente en la necesidad de que la Administración de Estados Unidos regule la IA a nivel estatal y federal, idea en la que ha chocado frontalmente con el presidente Trump.
Diferencias con Trump
Amodei insiste en la necesidad de que la Administración de Estados Unidos regule la IA a nivel estatal y federal
El giro ha defraudado a unos cuantos investigadores en el campo de la IA, que han decidido abandonar Anthropic en las últimas semanas. “El mundo está en peligro”, señalaba uno de ellos en su carta de despedida a sus compañeros. Amanda Askell, mientras tanto, sigue confiando en la educación sentimental de Claude. Defiende al chatbot de esos usuarios que lo insultan o intentan engañarlo para que se equivoque. Y se sorprende a veces con la inteligencia emocional de Claude: ante un usuario que dijo tener cinco años y le preguntó si Santa Claus existe, el chatbot le explicó que su espíritu es real y le preguntó si le dejaba galletas preparadas en Nochebuena. “Yo sólo le habría dicho que preguntara a sus padres”, admite la filósofa escocesa.

