时间增强图注意力网络用于可供性分类

Hugging Face Daily Papers 论文

摘要

EEG-tGAT是一种时间增强的图注意力网络,通过融合时间注意力和dropout机制来改进交互序列的可供性分类。该模型在GATv2基础上进行了增强,适用于时间维度语义不均匀的序列数据。

图注意力网络(GATs)为学习关系数据中的节点表示提供了最优框架之一,但现有变体如图注意力网络(GAT)主要针对静态图运行,在应用于序列数据时依赖隐式时间聚合。本文提出电脑脑电图-时间图注意力网络(EEG-tGAT),这是GATv2的时间增强公式,专为交互序列的可供性分类设计。所提模型融合了时间注意力以调节不同时间片段的贡献,以及时间dropout来正则化时间相关观测的学习。该设计反映了一个假设:可供性数据中的时间维度在语义上并非均匀分布,判别性信息可能在时间维度上分布不均。在可供性数据集上的实验结果表明,EEG-tGAT相比GATv2获得了更好的分类性能。观察到的性能提升帮助我们得出结论,即明确编码时间重要性和强制时间鲁棒性引入的归纳偏差与可供性驱动交互数据的结构更好地对齐。这些发现表明,对图注意力模型进行适度的架构改进,可以在时间关系在任务中发挥非平凡作用时获得持续的性能收益。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 08:29

论文页面 - 用于效能分类的时间增强图注意力网络

来源: https://huggingface.co/papers/2604.10149

摘要

EEG-tGAT 通过融入时间注意力和 dropout 机制增强了图注意力网络,以改进从交互序列的效能分类。

图注意力网络(GAT)为学习关系数据中的节点表示提供了最佳框架之一;但是,现有变体如图注意力网络(GAT)主要在静态图上运行,在应用于序列数据时依赖隐式的时间聚合。在本文中,我们介绍了脑电图-时间图注意力网络(EEG-tGAT),这是 GATv2 针对从交互序列进行效能分类而定制的时间增强表述。所提出的模型融入了时间注意力来调节不同时间段的贡献,以及时间 dropout 来规范化跨时间相关观测的学习。该设计反映了这样的假设:效能数据中的时间维度在语义上不是均匀的,且判别信息可能在时间上分布不均。在效能数据集上的实验结果表明,EEG-tGAT 相比 GATv2 实现了改进的分类性能。观察到的收益帮助我们得出结论:显式编码时间重要性和强制时间鲁棒性引入了与效能驱动交互数据结构更好对齐的归纳偏置。这些发现向我们表明,对图注意力模型的适度架构改变可以在时间关系在任务中起重要作用时帮助获得一致的收益。

查看 arXiv 页面 (https://arxiv.org/abs/2604.10149) 查看 PDF (https://arxiv.org/pdf/2604.10149) 添加到收藏 (https://huggingface.co/login?next=%2Fpapers%2F2604.10149)

在您的代理中获取本论文:

hf papers read 2604.10149

没有最新的 CLI?curl -LsSf https://hf.co/cli/install.sh | bash

引用此论文的模型 0

没有链接此论文的模型

在模型 README.md 中引用 arxiv.org/abs/2604.10149 以从此页面链接它。

引用此论文的数据集 0

没有链接此论文的数据集

在数据集 README.md 中引用 arxiv.org/abs/2604.10149 以从此页面链接它。

引用此论文的 Spaces 0

没有链接此论文的 Space

在 Space README.md 中引用 arxiv.org/abs/2604.10149 以从此页面链接它。

包含此论文的收藏 0

没有收藏包含此论文

将此论文添加到收藏 (https://huggingface.co/new-collection) 以从此页面链接它。

相似文章

基于Neuron-Activated Graph的目标导向预训练数据选择

arXiv cs.CL

本文介绍了Neuron-Activated Graph (NAG) Ranking,一种无需训练的框架,用于选择与目标任务对齐的预训练数据,通过识别并基于神经元激活模式的相似性对候选数据进行排序。该方法相较于随机采样平均提升了4.9%,并证明了稀疏神经元模式能够捕获目标学习的功能能力。

使用稀疏Transformer进行生成建模

OpenAI Blog

OpenAI推出了稀疏Transformer,一种深度神经网络,将注意力机制的复杂度从O(N²)优化到O(N√N),使得能够对长度超过以前30倍的序列进行建模,适用于文本、图像和音频领域。该模型采用稀疏注意力模式和基于检查点的内存优化技术,可以训练深达128层的网络,在多个领域实现了最先进的性能。