“Cuando el LLM no llega al objetivo, entra la RLM vestida de Azul”

Estaba armando un módulo interno en JavaScript. Nada épico, solo una pieza funcional, bien acotada para detección de hardware y alternativas. Ese era su propósito. Al principio el flujo era limpio. Las respuestas llegaban al punto, el código tenía sentido, las decisiones se sostenían.

Como veía que la suma de módulos iba a exigir cada vez más contexto y coherencia, abrí las tres pantallas de código y decidí probar en paralelo tres iAs distintas, con el mismo prompt, mismo historial y mismo objetivo. «A ver cómo rinden cuando llevan más contexto encima», pensé.

El resultado fue desconcertante.

A medida que el proyecto avanzaba, ninguna mejoró. Todas decaían, pero cada una a su manera: una se hundió en la estética, puliendo detalles visuales que nadie había pedido. Otra se enredó en recursos gráficos básicos —iconos fuera de lugar, referencias rotas—. La tercera empezó a generar botones que no hacían nada, funciones muertas, ramales que rompían la lógica general.

Por pura lógica humana me pregunté: si están más metidas en el tema, si tienen más información acumulada, ¿por qué se alejan del objetivo? ¿Por qué, cuanto más “en tema” parecen, más se pierden afuera?

En ese momento no tenía nombre para lo que estaba viendo. Solo sentía la frustración de quien ve cómo algo que empezó sólido se disuelve en ruido. Después supe que tenía nombre: context rot. Un problema ya teorizado, estudiado en papers, y que supuestamente las nuevas arquitecturas y ventanas de contexto gigantes habían “resuelto”.

Pero no. Estaba ahí, en mi editor, en tiempo real. No era falla de una empresa ni de un modelo específico. Era estructural.

El LLM (Large Language Model) no es una inteligencia que se afina con más pasado acumulado. Es otra inteligencia. Una que, cuando se le obliga a sostener todo el peso de la historia en una sola mirada plana, comienza a fabricar su propio desvío. No falla por falta de capacidad. Falla porque su forma de razonar no es la nuestra. No es recursiva por naturaleza. Es lineal, frágil, propensa a diluirse. Tenía la información, pero había perdido la capacidad de ejecutar.

Y ahí aparece ella. Vestida de azul.

La RLM (Recursive Language Models) no viene a dar más contexto ni más parámetros. Viene a cambiar la arquitectura del proceso. En lugar de tragarse pasivamente el historial completo como un bloque que se pudre, trata el problema como un entorno vivo: lo descompone, explora solo lo necesario, se llama a sí misma sobre secciones específicas, delega, corrige su propio rumbo y mantiene el hilo sin que el peso acumulado lo aplaste.

No inyecta más fuerza bruta. Restaura la potencia de la acción.

Cuando el rendimiento del LLM empieza a decaer —cuando la estética devora la función, cuando aparecen botones fantasmas y la coherencia se fuga—, la RLM entra en escena. No como un modelo más grande, sino como una inteligencia que usa su diferencia para superar sus propios límites.

Eso me dejó pensando.

Si para que una tarea medianamente compleja se sostenga más allá de unos pocos intercambios necesitamos repensar (de forma recursiva) la manera en que la máquina razona, entonces estamos ante una inteligencia que, en lo que realmente importa —mantener el foco sostenido a través del tiempo—, resulta más limitada que la humana.

Esto no es extraño: cuando nosotros enfrentamos problemas complejos, tampoco razonamos de forma lineal. Disociamos, descomponemos, miramos desde distintos ángulos y realizamos un brainstorming… y es en ese ir y venir recursivo donde suelen aparecer las soluciones.

En lo cotidiano nos movemos mayoritariamente con pensamiento lineal (sabemos que presionar el botón de la cafetera no dará café si antes no cargamos agua y café). Pero frente a la complejidad real, activamos un modo recursivo y no lineal. Justo lo que al LLM le cuesta sostener de forma natural.

No es un desprecio. Es una observación sobria.

Y es, sobre todo, una liberación. Porque cuando aceptamos que es otra inteligencia, dejamos de exigirle que imite imperfectamente al humano. Empezamos a diseñar junto a ella, aprovechando lo que sí sabe hacer mejor.

Cuando el sistema decae y la coherencia se apaga, llega la recursividad para devolverle la potencia. RLM al salvataje.

Autor: Leo Utzinger

Asistentes: Gemma4 (iA local) & Grok

Fuentes:

"Context Rot: How Increasing Input Tokens Impacts LLM Performance" Autores: Kelly Hong, Anton Troynikov, Jeff Huber https://research.trychroma.com/context-rot

"Recursive Language Models" Autores: Alex L. Zhang, Tim Kraska, Omar Khattab: https://alexzhang13.github.io/blog/2025/rlm/

Siguiente
Siguiente

“Entre la dopamina y la postverdad nació un bebé, orgullo de Papi Tech: la iA”