时间增强图注意力网络用于可供性分类
摘要
EEG-tGAT是一种时间增强的图注意力网络,通过融合时间注意力和dropout机制来改进交互序列的可供性分类。该模型在GATv2基础上进行了增强,适用于时间维度语义不均匀的序列数据。
查看缓存全文
缓存时间: 2026/04/20 08:29
论文页面 - 用于效能分类的时间增强图注意力网络
来源: https://huggingface.co/papers/2604.10149
摘要
EEG-tGAT 通过融入时间注意力和 dropout 机制增强了图注意力网络,以改进从交互序列的效能分类。
图注意力网络(GAT)为学习关系数据中的节点表示提供了最佳框架之一;但是,现有变体如图注意力网络(GAT)主要在静态图上运行,在应用于序列数据时依赖隐式的时间聚合。在本文中,我们介绍了脑电图-时间图注意力网络(EEG-tGAT),这是 GATv2 针对从交互序列进行效能分类而定制的时间增强表述。所提出的模型融入了时间注意力来调节不同时间段的贡献,以及时间 dropout 来规范化跨时间相关观测的学习。该设计反映了这样的假设:效能数据中的时间维度在语义上不是均匀的,且判别信息可能在时间上分布不均。在效能数据集上的实验结果表明,EEG-tGAT 相比 GATv2 实现了改进的分类性能。观察到的收益帮助我们得出结论:显式编码时间重要性和强制时间鲁棒性引入了与效能驱动交互数据结构更好对齐的归纳偏置。这些发现向我们表明,对图注意力模型的适度架构改变可以在时间关系在任务中起重要作用时帮助获得一致的收益。
查看 arXiv 页面 (https://arxiv.org/abs/2604.10149) 查看 PDF (https://arxiv.org/pdf/2604.10149) 添加到收藏 (https://huggingface.co/login?next=%2Fpapers%2F2604.10149)
在您的代理中获取本论文:
hf papers read 2604.10149
没有最新的 CLI?curl -LsSf https://hf.co/cli/install.sh | bash
引用此论文的模型 0
没有链接此论文的模型
在模型 README.md 中引用 arxiv.org/abs/2604.10149 以从此页面链接它。
引用此论文的数据集 0
没有链接此论文的数据集
在数据集 README.md 中引用 arxiv.org/abs/2604.10149 以从此页面链接它。
引用此论文的 Spaces 0
没有链接此论文的 Space
在 Space README.md 中引用 arxiv.org/abs/2604.10149 以从此页面链接它。
包含此论文的收藏 0
没有收藏包含此论文
将此论文添加到收藏 (https://huggingface.co/new-collection) 以从此页面链接它。
相似文章
基于Neuron-Activated Graph的目标导向预训练数据选择
本文介绍了Neuron-Activated Graph (NAG) Ranking,一种无需训练的框架,用于选择与目标任务对齐的预训练数据,通过识别并基于神经元激活模式的相似性对候选数据进行排序。该方法相较于随机采样平均提升了4.9%,并证明了稀疏神经元模式能够捕获目标学习的功能能力。
面向目标任务的预训练数据选择:基于神经元激活图的方法
提出神经元激活图排序(Neuron-Activated Graph Ranking),一种无需训练的框架,利用稀疏高影响神经元集合为目标任务挑选预训练数据,平均基准性能提升 4.9%。
图自监督学习对现实世界噪声的鲁棒性:基于文本驱动生物医学图的案例研究
本文介绍了 NATD-GSSL 框架,用于评估图自监督学习在含噪声的文本驱动生物医学图上的鲁棒性。研究表明,尽管存在现实世界的噪声,某些 GNN 架构和 pretext tasks(辅助任务)仍能保持性能,为在不完美数据集上进行无监督学习提供了实用指导。
GCCM:通过对比一致性模型增强生成图预测
本文介绍了 GCCM,一种图对比一致性模型。该模型通过引入负样本对和特征扰动,缓解了一致性训练中的捷径问题,从而提升了生成图预测的效果。
使用稀疏Transformer进行生成建模
OpenAI推出了稀疏Transformer,一种深度神经网络,将注意力机制的复杂度从O(N²)优化到O(N√N),使得能够对长度超过以前30倍的序列进行建模,适用于文本、图像和音频领域。该模型采用稀疏注意力模式和基于检查点的内存优化技术,可以训练深达128层的网络,在多个领域实现了最先进的性能。