FlashEvolve:通过异步阶段编排加速智能体自我进化
摘要
FlashEvolve 是一个框架,它利用异步阶段编排和工件版本追踪来加速基于大语言模型(LLM)的智能体自我进化。与同步执行方法相比,它显著提高了吞吐量和 token 效率。
查看缓存全文
缓存时间: 2026/05/12 07:28
论文页面 - FlashEvolve:通过异步阶段编排加速智能体自进化
来源:https://huggingface.co/papers/2605.08520 作者:
,
,
,
,
,
,
,
,
,
摘要
FlashEvolve 通过实现异步执行和工件版本追踪,在保持进化质量的同时减少了计算瓶颈,从而增强了基于 LLM 的进化框架。
基于 LLM 的进化(https://huggingface.co/papers?q=LLM-based%20evolution)已成为通过优化非参数化工具来改进智能体的一种有前景的方式,但其实际运行成本仍然是主要瓶颈。我们发现,这一成本来源于同步阶段执行以及每个 LLM 密集型阶段内部的不平衡。我们提出了 FlashEvolve,这是一个高效的框架,用异步工作者(https://huggingface.co/papers?q=asynchronous%20workers)和队列取代同步执行(https://huggingface.co/papers?q=synchronized%20execution),允许不同阶段和步骤重叠。为了处理由异步性引入的数据陈旧问题,FlashEvolve 追踪工件版本,并应用不同的策略来更新、丢弃或修补陈旧的工件。与异步 RL 中的权重空间陈旧性不同,语言空间中的陈旧性是可检查且可修复的:一个陈旧的工件不仅仅是一项延迟的工作,更是可读的证据,LLM 可以对其进行反思、修改,并将其转化为有用的进化信号。FlashEvolve 还通过推测性阶段完成(https://huggingface.co/papers?q=speculative%20stage%20completion)和自适应工作流控制(https://huggingface.co/papers?q=adaptive%20workflow%20control)进一步提高了吞吐量和令牌效率。在 GEPA(https://huggingface.co/papers?q=GEPA)工作负载上,与同步 GEPA(https://huggingface.co/papers?q=GEPA)相比,FlashEvolve 在本地 vLLM(https://huggingface.co/papers?q=vLLM)上将提案吞吐量提高了 3.5 倍,在 API 服务(https://huggingface.co/papers?q=API%20serving)上提高了 4.9 倍。同样的设计也适用于 ACE 和 Meta-Harness。
查看 arXiv 页面(https://arxiv.org/abs/2605.08520)查看 PDF(https://arxiv.org/pdf/2605.08520)项目页面(https://flashevolve.picasso-lab.com/)添加到收藏(https://huggingface.co/login?next=%2Fpapers%2F2605.08520)
在您的智能体中获取此论文:
hf papers read 2605.08520
没有最新的 CLI?curl -LsSf https://hf.co/cli/install.sh | bash
引用此论文的模型 0
没有链接此论文的模型
在模型 README.md 中引用 arxiv.org/abs/2605.08520 以从本页链接。
引用此论文的数据集 0
没有链接此论文的数据集
在数据集 README.md 中引用 arxiv.org/abs/2605.08520 以从本页链接。
引用此论文的 Spaces 0
没有链接此论文的 Space
在 Space README.md 中引用 arxiv.org/abs/2605.08520 以从本页链接。
包含此论文的合集 0
没有包含此论文的合集
将此论文添加到合集(https://huggingface.co/new-collection)以从本页链接。
相似文章
EvoMaster:构建可进化大规模自主科学智能体的基础框架
# 论文页面 - EvoMaster:构建可进化大规模自主科学智能体的基础框架 来源:[https://huggingface.co/papers/2604.17406](https://huggingface.co/papers/2604.17406) 作者:,,,,,,,,,,,,,,,,,,,,, ## 摘要 EvoMaster 是一个可扩展、自我进化的智能体框架,专为大规模科学发现设计,支持在实验周期中迭代优化假设并持续积累知识。大语言模型与智能体的融合正在催生“智能体科学”新时代。
EvoMap/evolver
Evolver 是一个由 GEP 驱动的 AI 代理自演化引擎,可自动化提示词优化并创建可审计、可复用的演化资产。该项目正从完全开源过渡到源代码可用,同时保持与现有 MIT 和 GPL-3.0 版本的向后兼容性。
CoEvolve:通过智能体-数据互进化训练LLM智能体
CoEvolve提出了一个智能体-数据互进化框架,通过闭环、交互驱动的学习来训练LLM智能体,同时适配智能体和其训练数据分布。该方法从轨迹回滚中提取反馈信号以指导基于LLM的任务合成,在AppWorld和BFCL基准上的多个Qwen模型中展示了显著的改进(绝对收益15-19%)。
EvoTest:面向自我改进智能体系统的进化式测试时学习
EvoTest 引入了 J-TTL,一个衡量智能体测试时学习能力的基准,并提出了一个进化框架,其中 Actor 智能体玩游戏,而 Evolver 智能体在不进行微调的情况下迭代改进系统的提示、记忆和超参数。该方法在基于复杂文本的游戏中表现出优于基于反思和记忆的基线方法的性能。
通过世界知识探索训练LLM智能体实现自发、无奖励的自我进化
# 论文页面 - 通过世界知识探索训练LLM智能体实现自发、无奖励的自我进化 来源:[https://huggingface.co/papers/2604.18131](https://huggingface.co/papers/2604.18131) ## 摘要 具备内在元进化能力的智能体通过在没有外部监督的情况下自主生成的世界知识,在网页导航任务中展现出更优的性能。如今大多数智能体通过遵循人类定义的奖励和规则来``自我进化''。然而,