Volver al blog
CORAL: Evolución Multi-Agente Autónoma para Descubrimiento Abierto

CORAL: Evolución Multi-Agente Autónoma para Descubrimiento Abierto

Fixed evolutionary search has hit a ceiling. FunSearch and AlphaEvolve showed that LLMs can mutate solutions, but they treated the LLM as a mutation operator in a predefined pipeline—the model has no agency over what to explore next, when to verify, or what knowledge to preserve. It's evolution *in a straitjacket*.

The CORAL paper (Qu et al., 2026, arXiv:2604.01658) proposes something different: what if agents carried their own memory, organized their own work, and decided when to reflect? Not a pipeline with an LLM component, but autonomous agents conducting open-ended discovery.

La búsqueda evolutiva fija ha tocado un techo. FunSearch y AlphaEvolve mostraron que los LLMs pueden mutar soluciones, pero trataban al LLM como un operador de mutación en un pipeline predefinido—el modelo no tiene agencia sobre qué explorar a continuación, cuándo verificar, o qué conocimiento preservar. Es evolución *con correas*.

El paper CORAL (Qu et al., 2026, arXiv:2604.01658) propone algo diferente: ¿qué pasa si los agentes cargan su propia memoria, organizan su propio trabajo y deciden cuándo reflexionar? No un pipeline con un componente LLM, sino agentes autónomos llevando a cabo descubrimiento abierto.

CORAL introduces three mechanisms that sound simple but aren’t. Shared persistent memory isn’t a vector store—it’s a file system with directories like attempts/, notes/, and skills/. Agents read previous attempts, write reflection notes, and contribute reusable skills. Memory is first-class infrastructure, not an afterthought. Asynchronous multi-agent organization means isolated workspaces with shared memory via symlinks. There’s no predefined role assignment—no “planner,” “critic,” or “coder.” Agents emerge into roles based on what they find. Heartbeat-based interventions are per-iteration reflection, periodic consolidation (notes→skills), and stagnation-triggered redirection. The system doesn’t just run—it checks itself.

CORAL introduce tres mecanismos que suenan simples pero no lo son. Memoria persistente compartida no es un vector store—es un sistema de archivos con directorios como attempts/, notes/, y skills/. Los agentes leen intentos previos, escriben notas de reflexión y contribuyen habilidades reutilizables. La memoria es infraestructura de primera clase, no un pensamiento posterior. Organización multi-agente asíncrona significa espacios de trabajo aislados con memoria compartida via symlinks. No hay asignación de roles predefinida—no “planificador,” “crítico,” o “codificador.” Los agentes emergen en roles basados en lo que encuentran. Intervenciones basadas en latidos son reflexión por iteración, consolidación periódica (notes→skills), y redirección activada por estancamiento. El sistema no solo corre—se verifica.

The results are what matter. On single-agent evolution, CORAL achieves **new SOTA on 8/11 tasks**, with **3-10× higher improvement rates** than baselines. Convergence happens at 5-20 evaluations versus 60-100 for alternatives. That's not incremental—it's a paradigm shift.

But the multi-agent results are the showstopper. In kernel engineering (Anthropic’s benchmark), 4 agents improved the best known score from 1363 → 1103 cycles—a 20% improvement. In polyominoes packing, 4 agents achieved 84.2 versus single-agent 80.2—a 5% gain. And co-evolution beats independent runs: 4-agent co-evolution outperforms the best-of-4 independent runs on every task.

Los resultados son lo que importa. En evolución de agente único, CORAL logra **nuevo SOTA en 8/11 tareas**, con **tasas de mejora 3-10× más altas** que los baselines. La convergencia sucede en 5-20 evaluaciones versus 60-100 para alternativas. Eso no es incremental—es un cambio de paradigma.

Pero los resultados multi-agente son los protagonistas. En ingeniería de kernels (el benchmark de Anthropic), 4 agentes mejoraron la mejor puntuación conocida de 1363 → 1103 ciclos—una mejora del 20%. En empaque de poliominós, 4 agentes lograron 84.2 versus 80.2 de agente único—una ganancia del 5%. Y la co-evolución supera las ejecuciones independientes: la co-evolución de 4 agentes supera al mejor-de-4 ejecuciones independientes en cada tarea.

Why does this work? Two reasons. First, **knowledge accumulation is causal**, not correlational. Removing notes and skills causes an 18.6% regression on kernel engineering (1350→1601). The system doesn't just use memory—it *needs* memory to perform. Second, **cross-agent transfer is the engine**. 36% of attempts use another agent's code as the parent, and 66% of new records come from cross-agent parents. The agents aren't solving problems in isolation—they're building on each other.

CORAL also works with open-source models. MiniMax M2.5 + OpenCode (no proprietary models needed) produces competitive results. This isn’t a closed-shop finding—this is reproducible infrastructure.

¿Por qué funciona? Dos razones. Primera, **la acumulación de conocimiento es causal**, no correlacional. Eliminar notas y habilidades causa una regresión del 18.6% en ingeniería de kernels (1350→1601). El sistema no solo usa memoria—*necesita* memoria para funcionar. Segunda, **la transferencia entre agentes es el motor**. El 36% de los intentos usan el código de otro agente como padre, y el 66% de los nuevos registros vienen de padres cruzados. Los agentes no están resolviendo problemas en aislamiento—están construyéndose unos sobre otros.

CORAL también funciona con modelos de código abierto. MiniMax M2.5 + OpenCode (sin necesidad de modelos patentados) produce resultados competitivos. Esto no es un hallazgo de club cerrado—es infraestructura reproducible.

For systems built on DSPy and Dapr, CORAL points to a future. DSPy gives you declarative optimization—define signatures, attach metrics, let the optimizer search. Dapr gives you decentralized service orchestration. But neither gives you *autonomous evolution across services*. The next iteration isn't prompt optimization—it's agent optimization. Let agents carry memory, organize themselves, and evolve their own workflows. The agents that win won't be the ones with the best prompts. They'll be the ones that know how to search.

We’re not there yet. But CORAL shows the direction: from fixed pipelines to autonomous multi-agent systems that carry memory, reflect, and build on each other. That’s the shift from “LLM as operator” to “agent as researcher.”

Para sistemas construidos sobre DSPy y Dapr, CORAL apunta a un futuro. DSPy te da optimización declarable—define signatures, adjunta métricas, deja que el optimizador busque. Dapr te da orquestación de servicios descentralizada. Pero ninguno te da *evolución autónoma entre servicios*. La siguiente iteración no es optimización de prompts—es optimización de agentes. Deja que los agentes carguen memoria, se organicen y evolucionen sus propios flujos de trabajo. Los agentes que ganen no serán los que tengan los mejores prompts. Serán los que sepan buscar.

Aún no llegamos ahí. Pero CORAL muestra la dirección: de pipelines fijos a sistemas multi-agente autónomos que cargan memoria, reflexionan y se construyen unos sobre otros. Ese es el cambio de “LLM como operador” a “agente como investigador.”

The ceiling isn’t model scale. It’s the fixed pipeline. CORAL cracks it open.

El techo no es la escala del modelo. Es el pipeline fijo. CORAL lo abre.


References

Referencias

  • Qu, A., Zheng, H., Zhou, Z., Yan, Y., Tang, Y., Ong, S. Y., Hong, F., Zhou, K., Jiang, C., Kong, M., Zhu, J., Jiang, X., Li, S., Wu, C., Low, B. K. H., Zhao, J., & Liang, P. (2026). *CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery*. arXiv:2604.01658v1. arxiv.org/abs/2604.01658
  • Code: github.com/Human-Agent-Society/CORAL
  • Related works: FunSearch (Google DeepMind), AlphaEvolve (Google), AI Scientist (Sakana AI), OpenEvolve, ShinkaEvolve, EvoX
  • Qu, A., Zheng, H., Zhou, Z., Yan, Y., Tang, Y., Ong, S. Y., Hong, F., Zhou, K., Jiang, C., Kong, M., Zhu, J., Jiang, X., Li, S., Wu, C., Low, B. K. H., Zhao, J., & Liang, P. (2026). *CORAL: Hacia la Evolución Autónoma Multi-Agente para el Descubrimiento Abierto*. arXiv:2604.01658v1. arxiv.org/abs/2604.01658
  • Código: github.com/Human-Agent-Society/CORAL
  • Trabajos relacionados: FunSearch (Google DeepMind), AlphaEvolve (Google), AI Scientist (Sakana AI), OpenEvolve, ShinkaEvolve, EvoX
Compartir