El pasado 22 de enero, Anthropic publicó la nueva «Constitución de Claude», un documento de 23.000 palabras que no solo establece reglas de comportamiento para su modelo de inteligencia artificial (IA), sino que intenta responder a una pregunta filosófica de fondo: ¿puede una … inteligencia artificial ser poderosa ya la vez respetuosa con la autonomía humana? Este ideal, que el profesor Juan Manuel López Zafra ha descrito como el «mentor que no dirige», resume la aspiración de Claude: ayudar sin sustituir, guiar sin dominar.
Claude Code, un asistente de programación, representa una sofisticación mayor: puede comprender proyectos completos, modificar código, ejecutar comandos y colaborar en tareas complejas de desarrollo, todo a partir de lenguaje natural. Pero también representa una apuesta civilizacional: que es posible construir IA útil sin renunciar a la autonomía humana. Su «constitución» defiende principios como la libertad de pensamiento, la privacidad individual o la autodeterminación epistémica. En palabras de Anthropic: Claude debe tratar al usuario como un «adulto inteligente».
Este enfoque ha conquistado a empresas, investigadores y profesionales del conocimiento. Claude se ha convertido en una especie de asistente de alta cultura: elegante, prudente, culto e informado. Pero esa misma sofisticación ha abierto una brecha que hoy empieza a ser visible. En los foros técnicos, en las comunidades hacker y en los rincones descentralizados de internet, una nueva figura está robando titulares: Garrabot.
En Claude manda la responsabilidad, mientras que en Clawdbot se apuesta por la libertad
No confundir con Claude. Clawdbot es, en apariencia, su antítesis. Se presenta como el «asistente personal definitivo», pero con una diferencia fundamental: se ejecuta localmente, bajo tu control, en tu servidor, sin depender de nubes corporativas ni supervisión institucional. «Toda la potencia de la IA a tu servicio, con tu control». Así lo resume uno de sus impulsores en redes sociales. Su instalación es relativamente sencilla, su mantenimiento barato. Y su propuesta es clara: devolver el poder al usuario.
Clawdbot es, en muchos sentidos, el hijo espiritual del movimiento ‘software libre’: descentralizado, personalizable, libre de estructuras jerárquicas. Su éxito reciente en la comunidad técnica tiene algo de reacción cultural: frente a las grandes plataformas (OpenAI, Anthropic, DeepMind, MetaAI, Mistral) que moderan, filtran y definen los marcos de uso de la IA, Clawdbot promete soberanía individual. Frente al asistente que se consigue una constitución empresarial, el bot que responde solo a su dueño.
Pero esta oposición revela una tensión más profunda. Claude es el paradigma de la IA institucional: segura, controlada, dotada de un marco normativo explícito, casi regida por la Carta de la ONU. Clawdbot es la IA de frontera: libre, sin filtros, potencialmente peligroso. La primera prioriza la responsabilidad; la segunda, la libertad. La primera exige confianza en una entidad (Anthropic); la segunda apuesta por la autonomía radical del individuo.
¿Dónde está el equilibrio? ¿Queremos asistentes que se rijan por principios universales, o preferimos agentes que podamos moldear según nuestras preferencias? La pregunta no es técnica, sino política. Y las respuestas dibujan modelos de sociedad opuestos: uno basado en la regulación ilustrada, otro en el empoderamiento descentralizado.
Lo que resulta indiscutible es que ambos modelos están redefiniendo la relación entre humanos y máquinas. Claude Code ha transformado el trabajo de los desarrolladores: ya no se programa línea por línea, sino que se conversa con el sistema, se delegan tareas, se validan resultados. El cuello de botella ya no es la habilidad técnica, sino la claridad conceptual. Como dijo Dario Amodei, fundador de Anthropic, en Davos, sus ingenieros ya no codifican; piensan en el siguiente nivel.
Clawdbot lleva esta lógica un paso más allá: si la IA puede ser entrenada, adaptada y ejecutada localmente, ¿por qué no convertirla en una extensión radical de la voluntad individual? ¿Por qué no tener un asistente que refleje nuestros valores, sin intermediarios? La pregunta entusiasma y alarma a partes iguales. Porque la libertad sin también filtros permite usos opacos, manipulación y abuso.
Ambos caminos tienen riesgos. Claude puede derivar en paternalismo algorítmico. Clawdbot, en anarquía digital. Uno puede volverse demasiado prudente; el otro, temerario. Pero también pueden aprender uno del otro: Claude podría abrir más personalización local. Clawdbot podría incorporar límites éticos configurables. La verdadera innovación surgirá de la hibridación.
La decisión que enfrentamos no es trivial. No se trata de elegir entre dos productos, sino entre dos visiones de futuro. Claude y Clawdbot representan modelos de convivencia entre humanos y sistemas inteligentes. Una parte del contrato social; el otro, del contrato personal. Ambos son legítimos. Pero sus consecuencias divergen radicalmente.
En este paisaje emergente, tal vez la pregunta más honesta no sea «qué puede hacer la IA por mí», sino «qué tipo de relación quiero tener con ella». Claude nos ofrece un pacto ilustrado. Clawdbot, una promesa libertaria. Entre ambos, se juega hoy el alma de la inteligencia artificial.
