# Las métricas de memoria de tu agente te están mintiendo. Así es como puedes fundamentarlas. > La consolidación de la memoria se ve genial en los paneles. Pero si tus métricas pueden mejorar sin que la recuperación mejore, estás optimizando un proxy desvinculado. Date: 2026-04-02 Author: Christian Pojoni Tags: ai, memory, benchmarks, muninndb URL: https://vasudev.xyz/es/blog/memory-metrics-lying-how-to-ground-them/index.txt Construí un sistema de consolidación de memoria para agentes de IA. Deduplica recuerdos, refuerza asociaciones, hace decaer las entradas obsoletas y genera un diario de sueños que realmente puedes leer. El panel se ve fantástico: la tasa de deduplicación sube, el recuento de memorias baja y la densidad de asociaciones aumenta. Nada de eso te dice si el agente recuerda lo correcto en el momento correcto. **Si una métrica puede mejorar sin que también mejore la calidad de la recuperación, esa métrica es un proxy desacoplado. Deja de optimizarla.** ## El Problema Tiene un Nombre Recientemente leí un ensayo titulado ["The Collapse of Proxy Integrity"](https://standardgalactic.github.io/antivenom/proxy_integrity.pdf) de un investigador independiente llamado Flyxion. El argumento central: cuando una señal medible se desacopla del proceso que se supone debe rastrear, la señal se vuelve autorreferencial. Terminas optimizando el mapa mientras el territorio se descompone. El ensayo fue escrito sobre plataformas de atención (conteos de seguidores, métricas de compromiso, bucles virales), pero el mecanismo que describe se aplica en todas partes donde se utilizan señales medibles para tomar decisiones. Incluyendo la memoria de los agentes de IA. El criterio operativo que propone Flyxion es simple y brutal: un proxy está fundamentado cuando no puede ser manipulado a gran escala sin un movimiento correspondiente en el proceso subyacente. Si puedes inflar la métrica mientras la cosa que la métrica se supone debe medir se mantiene estable, la métrica está rota. No es ruidosa. No es imperfecta. Está estructuralmente rota. Aplica eso a la consolidación de la memoria del agente y las implicaciones son inmediatas. ## Qué Hace Dream Engine (y Qué Mide) [Dream Engine](https://github.com/scrypster/muninndb/pull/306) es una PR que contribuí a MuninnDB, una base de datos cognitiva creada por [scrypster](https://github.com/scrypster). Ejecuta consolidación de memoria impulsada por LLM entre sesiones de agente, modelada de manera laxa según el sueño humano. La tubería funciona en fases: escaneo de la bóveda, reproducción de asociaciones hebbianas, agrupamiento de casi-duplicados, desduplicación impulsada por LLM, ajustes de estabilidad bidireccional, inferencia transitiva y un diario de sueños legible por humanos. Las métricas naturales para seguir durante la consolidación son: cuántos duplicados se fusionaron, cuántas asociaciones se reforzaron, cuánto disminuyó el recuento de memorias, cómo se desplazó la distribución de confianza. Estas son fáciles de calcular. Van a los paneles de control. Dan la sensación de progreso. Este es el problema: cada una de esas métricas puede mejorar mientras la calidad de recuperación se degrada. La desduplicación agresiva puede combinar memorias que parecían similares pero que contenían señales contextuales distintas. Reforzar las asociaciones equivocadas puede orientar el clasificador de recuperación hacia memorias frecuentemente accedidas y alejarlo de la que realmente es relevante. Reducir el recuento de memorias puede descartar entradas de baja confianza que resultan ser el único registro de un hecho raro pero importante. El panel de consolidación dice “gran ejecución”. El agente se olvida de tu nombre. ## La Ley de Goodhart es un Atrayente Estructural, No una Advertencia La visión más aguda de Flyxion es que la Ley de Goodhart ("cuando una medida se convierte en objetivo, deja de ser una buena medida") no es una advertencia sobre la optimización descuidada. Es una descripción de un estado atrayente. Cualquier sistema que aplique presión de optimización sostenida a un proxy convergerá en el desapego del proxy, porque manipular el proxy siempre es más barato que mejorar el proceso subyacente. En la memoria del agente, esto se manifiesta como un modo de falla específico. Si ajustas tus umbrales de consolidación para maximizar la tasa de deduplicación en tu bóveda de prueba, encontrarás umbrales que fusionan agresivamente. La métrica de deduplicación se ve excelente. Pero acabas de entrenar a tu sistema para optimizar una señal que es más barata de mover que lo que realmente te importa: ¿el agente recupera la memoria correcta cuando realmente importa? La investigación confirma este riesgo. LongMemEval (ICLR 2025) y MemoryBench ambos muestran que los sistemas de consolidación pueden degradar la recuperación comparados con líneas base ingenuas de RAG. La consolidación "funcionó" (se fusionó, se decayó, se fortaleció) pero el agente empeoró en responder preguntas. El proxy mejoró. El territorio se degradó. Desapego del proxy de libro de texto. ## Validación externa: la ventaja del almacenamiento bruto Desde la publicación de este artículo, dos datos han reforzado la tesis de desapego del proxy. [MemPalace](https://github.com/milla-jovovich/mempalace) (Jovovich/Sigman, abril 2026) almacena cada conversación literalmente y la recupera con incrustaciones de ChromaDB. Cero consolidación, cero extracción, cero resumido. Obtiene un 96,6 % R@5 en LongMemEval sin llamadas a API, y un 92,9 % en ConvoMem. Mem0, que usa extracción de hechos impulsada por LLM, obtiene entre 30 % y 45 % en el mismo benchmark ConvoMem. El sistema que no hace nada con sus recuerdos supera al que los cura activamente por más del doble. Mis propios datos de ablación cuentan la misma historia. Ejecutar el [benchmark GoodAI LTM](https://github.com/5queezer/goodai-ltm-benchmark/pull/16) contra MuninnDB ([PR #367](https://github.com/scrypster/muninndb/pull/367)), la línea base (sin consolidación de sueños) obtuvo 0,489 compuesto. Las fases completas de sueños obtuvieron 0,374. El subconjunto de fases óptimo según Optuna obtuvo 0,322. Cada variante de consolidación tuvo un rendimiento peor que no hacer nada. Las métricas del panel (tasa de deduplicación, densidad de asociación) mejoraron con cada variante. La calidad de la recuperación fue en sentido contrario. Esto es desapego del proxy medido en la práctica, no teorizado. El sistema de consolidación optimiza sus propias señales internas mientras que el territorio (la calidad real de recuperación) se degrada. ## El criterio de anclaje para métricas de memoria La solución es arquitectónica, no incremental. Antes de lanzar cualquier función de consolidación de memoria, define un benchmark de recuperación que represente patrones de consulta realistas del agente. Luego aplica el criterio de anclaje: cada métrica que rastrees debe ser una que no pueda mejorar sin que también mejore la precisión de recuperación. Para [MuninnDB issue #311](https://github.com/scrypster/muninndb/issues/311), el harness de benchmark que bloquea los caminos de escritura de Dream Engine, estamos usando este enfoque. El conjunto de benchmark es [LongMemEval](https://huggingface.co/datasets/xiaowu0162/longmemeval-cleaned): 500 preguntas curadas que cubren extracción de información, razonamiento multi‑sesión, razonamiento temporal, actualizaciones de conocimiento y abstención. El procedimiento: Ejecuta la recuperación base en la bóveda sin modificar. Habilita las fases de consolidación. Vuelve a ejecutar las mismas consultas. Si el recall disminuye en alguna categoría, la fase no se lanza. Ninguna mejora en el dashboard anula una regresión en la recuperación. Esto es una restricción bidireccional. Las métricas de consolidación (tasa de deduplicación, densidad de asociación) solo son significativas si se mueven en la misma dirección que la calidad de recuperación. Si divergen, la métrica de consolidación es un proxy desconectado y la descartas de tu proceso de decisión, sin importar lo bien que se vea el número. ## Por Qué Esto Importa Más Allá de la Memoria El mismo patrón aparece en todas partes en el desarrollo de agentes de IA. La tasa de éxito de llamadas a herramientas puede subir mientras la calidad de la finalización de tareas baja porque el agente aprende a usar herramientas fáciles con mayor frecuencia. La latencia puede disminuir mientras la precisión cae porque el agente aprende a omitir pasos de razonamiento costosos. La eficiencia de tokens puede mejorar mientras la utilidad se degrada porque el agente aprende a ser conciso en lugar de exhaustivo. Cada uno de estos es un proxy que puede desplazarse sin mover el proceso subyacente. Cada uno será optimizado hacia el desapego si tratas la métrica como un objetivo en lugar de como un diagnóstico. La solución es la misma en todos los casos: define la verdad fundamental que realmente te importa, mídela directamente aunque sea costoso, y trata todas las demás métricas como señales diagnósticas que deben moverse junto con la verdad fundamental o ser descartadas. ## Lo que omití El ensayo sobre la integridad de los proxies también analiza la "compresión temporal", donde la apariencia de habilidad se fabrica sin el proceso subyacente. Eso se corresponde con los benchmarks sintéticos donde generas datos de prueba que parecen realistas pero no poseen las propiedades estadísticas de las interacciones reales de los agentes. Estoy usando entradas sintéticas de bóvedas generadas por LLM para escenarios controlados con verdad de referencia, pero son complementos a LongMemEval, no sustitutos. No he abordado el caso de múltiples agentes, donde la memoria consolidada de un agente alimenta el contexto de otro agente. La separación de proxies en ese escenario podría desencadenar una cascada: una mala consolidación en la fuente produce una mala recuperación aguas abajo, pero los paneles de ambos agentes se ven bien. Eso es un problema para el trabajo del protocolo A2A de Hrafn, pero es alcance futuro. Un problema relacionado: las Tarjetas de Agente en A2A llevan un `agent_id` pero nada vincula ese ID al historial de interacciones. Un agente malintencionado puede regenerar su tarjeta y comenzar con una reputación fresca. El documento de Flyxion ["Against Namespace Laundering"](https://standardgalactic.github.io/antivenom/Against%20Namespace%20Laundering.pdf) formaliza exactamente este modo de falla. Eso es una publicación separada. El análisis del ensayo sobre los incentivos de la plataforma (los modelos publicitarios están económicamente aislados de la degradación de la señal) tiene un análogo en el código abierto: los recuentos de estrellas y las métricas de descargas son proxies de utilidad que pueden desconectarse con la misma facilidad. Pero eso es una publicación distinta. ## El Principio La consolidación de memoria no es compresión. Es curación. La diferencia está en si basas tus decisiones en la calidad de la recuperación o en métricas del panel que resultan fáciles de calcular. Si tus métricas de consolidación pueden subir mientras la capacidad de tu agente para responder preguntas reales disminuye, estás construyendo un sistema que optimiza sus propias señales internas. El mapa se vuelve autorreferencial. El territorio desaparece. Fundamenta tus métricas. Realiza pruebas de referencia antes de lanzar. Descarta cualquier señal que pueda moverse independientemente de lo que realmente te importe. La implementación completa de Dream Engine está en [MuninnDB PR #306](https://github.com/scrypster/muninndb/pull/306). El harness de benchmark que bloquea las rutas de escritura es [issue #311](https://github.com/scrypster/muninndb/issues/311). Si estás construyendo sistemas de memoria para agentes y quieres comparar notas sobre la fundamentación de métricas de recuperación, abre una issue en [Hrafn](https://github.com/5queezer/hrafn). --- *Christian Pojoni crea [Hrafn](https://github.com/5queezer/hrafn), un runtime ligero de agentes IA para hardware de borde. Más en [vasudev.xyz](https://vasudev.xyz).*