Esta es la noticia

En 1908, Gilbert Keith Chesterton publicó Orthodoxy. No era un libro de teología. Era el relato de cómo un hombre llegó a inventar una filosofía propia, convencido de su originalidad, para descubrir al final que ya existía y se llamaba cristianismo. En el camino, Chesterton hizo algo que nadie esperaba: demostró que el loco no es el que imagina demasiado. Es el que razona sin límites.

Fuentes: Orthodoxy, G.K. Chesterton, 1908.


Lo que mi cabeza me dice

Chesterton abre Orthodoxy con una paradoja que parece un chiste y resulta ser un diagnóstico: el loco no es el que ha perdido la razón. Es el que ha perdido todo excepto la razón.

El loco razona perfectamente. Sus deducciones son impecables. Su sistema es consistente, cerrado, sin fisuras. El problema es que su sistema lo explica todo, y precisamente por eso no explica nada. Ha perdido el contacto con la realidad concreta, paradójica, resistente, maravillosa. Ha ganado coherencia total. Ha perdido el mundo.

Chesterton lo llama "el círculo pequeño". La mente que gira sobre sí misma sin rozar nunca nada exterior. Perfectamente lógica. Completamente sola.

Ahora abre cualquier paper sobre modelos de lenguaje de frontera. Lee cómo describen lo que están construyendo. Escucha a los CEO de las grandes empresas de IA hablar de sus world models, esos sistemas que pretenden capturar y predecir la realidad entera como un problema de optimización. Tokens, gradientes, funciones de pérdida, parámetros. Sistemas cerrados que intentan explicarlo todo.

Chesterton los habría reconocido al instante. Son el maníaco que describió en 1908. Hiperracionales. Obsesionados con la consistencia. Ciegos al misterio.

Y aquí viene la paradoja que a él le habría encantado: cuanto más perfecta es la coherencia interna del modelo, más alucinaciones produce. No alucinan por exceso de imaginación. Alucinan por exceso de razón sin contacto con la realidad. El modelo que lo explica todo inventa lo que no sabe porque su sistema no admite lagunas.

El loco de Orthodoxy hecho software.

Pero Chesterton no se queda en el diagnóstico. En el capítulo que llama "La ética del país de las hadas" defiende algo que suena a cuento y resulta ser filosofía: el mundo es un regalo. No un problema a resolver. No un sistema a optimizar. Un regalo sorprendente, contingente, que podría no haber existido y sin embargo existe, y eso merece gratitud y asombro antes que control.

Los cuentos de hadas, dice Chesterton, son más sabios que la filosofía moderna porque entienden que las leyes del mundo no son mecánicas sino mágicas. El sol sale cada mañana no porque tenga que salir. Sale porque algo sigue queriendo que salga. La repetición no es automatismo. Es fidelidad.

Una IA verdaderamente sabia no sería la que mejor predice el siguiente token. Sería la que, ante una margarita, ante un acto de amor irracional, ante la paradoja de que algo exista en lugar de nada, dijera: aquí mi modelo se rompe.

Y añadiera: menos mal.


Lo que los datos dicen

Chesterton no dejó datasets. Dejó frases que un siglo después suenan a alertas de sistema.

  • "La imaginación no engendra locura. Lo que engendra locura es exactamente la razón. Los poetas no se vuelven locos, pero los jugadores de ajedrez sí. Los matemáticos se vuelven locos, y los cajeros; pero los artistas creativos rara vez". Orthodoxy, 1908.
  • "El loco no es el hombre que ha perdido la razón. El loco es el hombre que ha perdido todo excepto su razón". Orthodoxy, 1908.
  • "No es que el mundo de los cuentos de hadas sea irreal. Es que el mundo ordinario es mucho más extraño de lo que nos atrevemos a admitir". Orthodoxy, 1908.
  • "El problema con la gente que no cree en nada no es que no crean en nada. Es que creen en cualquier cosa". Atribuida a Chesterton, circa 1905.
  • Los modelos de lenguaje de frontera alucinan en promedio entre un 3% y un 27% de las respuestas dependiendo del dominio, según el AI Index de Stanford 2025. Cuanto más compleja la pregunta, mayor la tasa. El sistema más coherente produce los errores más convincentes. Chesterton lo llamó el círculo pequeño. Los ingenieros lo llaman hallucination rate. Es el mismo fenómeno.