生成式量子启发柯尔莫哥洛夫-阿诺德本征求解器

Hugging Face Daily Papers 论文

摘要

本文介绍生成式量子启发柯尔莫哥洛夫-阿诺德本征求解器(GQKAE),一种参数高效架构,用柯尔莫哥洛夫-阿诺德模块替代传统神经网络组件,显著降低内存使用并改善量子化学模拟中的收敛性。

高性能计算(HPC)对于可扩展的量子化学工作流日益重要,该工作流结合了经典生成模型、量子电路模拟和选态组态相互作用后处理。我们提出了用于量子化学的生成式量子启发柯尔莫哥洛夫-阿诺德本征求解器(GQKAE),它是生成式量子本征求解器(GQE)的参数高效扩展。GQKAE将GPT风格生成式本征求解器中参数密集的前馈网络组件替换为混合量子启发柯尔莫哥洛夫-阿诺德网络模块,形成紧凑的HQKANsformer骨干。该方法保留了自回归算子选择和量子选态组态相互作用评估流水线,同时使用单量子比特数据再上传激活(DatA Re-Uploading ActivatioN)模块提供具有表达力的非线性映射。在H4、N2、LiH、C2H6、H2O和H2O二聚体上的数值基准测试表明,GQKAE实现了与基于GPT的GQE架构相当的化学精度,同时将可训练参数和内存减少约66%,并改进了挂钟性能。对于N2和LiH等强关联系统,GQKAE还改善了收敛行为和最终能量误差。这些结果表明,量子启发柯尔莫哥洛夫-阿诺德网络可以在保持电路生成质量的同时减少经典端开销,为近期量子平台上的HPC-量子协同设计提供了一条可扩展的途径。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 14:27

论文页面 - Generative Quantum-inspired Kolmogorov-Arnold Eigensolver

来源:https://huggingface.co/papers/2605.04604 作者:

摘要

生成式量子启发 Kolmogorov-Arnold 特征求解器降低了量子化学工作流中的经典计算开销,同时保持了准确性,并改善了强关联系统的收敛性。

高性能计算(HPC)对于规模化的量子化学工作流日益重要,此类工作流将经典生成模型、量子电路模拟(https://huggingface.co/papers?q=quantum%20circuit%20simulation)和选择组态相互作用后处理相结合。我们提出了生成式量子启发 Kolmogorov-Arnold 特征求解器(GQKAE),作为生成式量子特征求解器(https://huggingface.co/papers?q=generative%20quantum%20eigensolver)(GQE)的参数高效扩展(https://huggingface.co/papers?q=parameter-efficient%20extension),用于量子化学。GQKAE 将 GPT 风格生成式特征求解器中参数密集的前馈网络组件替换为混合量子启发 Kolmogorov-Arnold 网络模块(https://huggingface.co/papers?q=Kolmogorov-Arnold%20network%20modules),形成紧凑的 HQKANsformer(https://huggingface.co/papers?q=HQKANsformer)骨干。该方法保留了自回归算子选择(https://huggingface.co/papers?q=autoregressive%20operator%20selection)和量子选择组态相互作用(https://huggingface.co/papers?q=quantum-selected%20configuration%20interaction)评估流程,同时使用单比特 DatA Re-Uploading ActivatioN 模块(https://huggingface.co/papers?q=single-qubit%20DatA%20Re-Uploading%20ActivatioN%20modules)提供富有表现力的非线性映射。在 H4、N2、LiH、C2H6、H2O 和 H2O 二聚体上的数值基准测试表明,GQKAE 达到了与基于 GPT 的 GQE 架构相当的化学精度,同时可训练参数和内存减少了约 66%,并改善了墙钟性能。对于 N2 和 LiH 等强关联系统,GQKAE 还改善了收敛行为和最终能量误差。这些结果表明,量子启发 Kolmogorov-Arnold 网络可以降低经典侧开销,同时保持电路生成质量,为近期量子平台(https://huggingface.co/papers?q=near-term%20quantum%20platforms)上的 HPC-量子协同设计提供了一条可扩展的路径。

查看 arXiv 页面(https://arxiv.org/abs/2605.04604)查看 PDF(https://arxiv.org/pdf/2605.04604)添加到收藏(https://huggingface.co/login?next=%2Fpapers%2F2605.04604)

在您的 agent 中获取此论文:

hf papers read 2605\.04604

没有最新的 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash

引用此论文的模型0

没有模型链接到此论文

在模型 README.md 中引用 arxiv.org/abs/2605.04604 以从此页面链接。

引用此论文的数据集0

没有数据集链接到此论文

在数据集 README.md 中引用 arxiv.org/abs/2605.04604 以从此页面链接。

引用此论文的 Space0

没有 Space 链接到此论文

在 Space README.md 中引用 arxiv.org/abs/2605.04604 以从此页面链接。

包含此论文的收藏1

相似文章

KyleHessling1/Qwopus-GLM-18B-Merged-GGUF

Hugging Face Models Trending

实验性 18B 参数模型:将两个 Qwen-3.5-9B 微调模型堆叠后,用 1000 步 QLoRA“缝合”层边界;生成的 GGUF 在 44 项测试集上超越 Qwen 3.6-35B MoE,却只占 9.2 GB 显存。

基于能量的模型的隐式生成和泛化方法

OpenAI Blog

OpenAI 提出了基于能量的模型 (EBM) 的隐式生成和泛化方法,该方法使用 Langevin 动力学进行迭代优化以生成样本,无需显式生成器网络。该方法具有多个优势,包括自适应计算时间、学习不连通数据模式的灵活性,以及通过专家乘积实现的内置组合性。

Aurora:一种针对矩形矩阵的杠杆感知优化器

Lobsters Hottest

Tilde Research 推出了 Aurora,这是一种新型优化器,旨在在保持正交性的同时防止 MLP 层中的神经元死亡,在 nanoGPT 基准测试中取得了最新成果,并在 1B 模型上实现了 100 倍的数据效率。

AdaExplore:基于失败驱动的自适应与多样性保留搜索的高效内核生成

arXiv cs.CL

来自卡内基梅隆大学、华盛顿大学和Arm的研究人员提出了AdaExplore,这是一种用于GPU内核代码生成的LLM智能体框架。该框架通过失败驱动自适应与多样性保留搜索技术,在不进行额外微调的情况下,在KernelBench Level-2和Level-3基准测试中分别实现了3.12倍和1.72倍的加速。