元学习上下文学习实现无需训练的跨被试脑解码
摘要
# 论文页面 - 元学习上下文学习实现无需训练的跨被试脑解码 来源:[https://huggingface.co/papers/2604.08537](https://huggingface.co/papers/2604.08537) 作者:,,,,,,,,,,,,, ## 摘要 一种元优化方法通过少量图像-脑示例快速推断个体独特神经编码模式,无需跨被试及扫描仪微调,即可实现可泛化的语义视觉解码。[视觉解码](https://huggingface.co/papers?q
查看缓存全文
缓存时间: 2026/04/21 07:21
论文页面 - 元学习上下文使无需训练即可跨被试脑解码成为可能
来源:https://huggingface.co/papers/2604.08537
作者:,,,,,,,,,,,,
摘要
一种元优化方法,仅凭少量图像-脑激活示例即可快速推断个体独特的神经编码模式,无需跨被试、跨扫描仪微调,实现可泛化的语义视觉解码。
视觉解码(https://huggingface.co/papers?q=Visual%20decoding)一直是计算机视觉与神经科学交叉的核心难题,需要把神经表征与视觉计算模型桥接起来。领域共同目标是获得可泛化的跨被试模型。主要障碍在于个体间神经表征差异巨大,过去只能为每位被试单独训练或微调专属模型。为此,我们提出一种元优化的语义视觉解码方法(https://huggingface.co/papers?q=visual%20decoding)基于fMRI(https://huggingface.co/papers?q=fMRI),无需任何微调即可泛化到新被试。只需给定少量来自新个体的图像-脑激活示例,模型即可迅速推断其独特神经编码模式,实现稳健高效的视觉解码。该方法显式针对新被试编码模型的上下文学习(https://huggingface.co/papers?q=in-context%20learning)进行元优化,并通过分层推断(https://huggingface.co/papers?q=hierarchical%20inference)反转编码器完成解码:
- 对多个脑区,利用多刺激-响应对构建上下文,估计每个体素的视觉响应编码器参数(https://huggingface.co/papers?q=encoder%20parameters);
- 再以编码器参数与多体素响应值为上下文,执行聚合式功能反转(https://huggingface.co/papers?q=functional%20inversion)。
我们在不同视觉骨干网络上展示了强大的跨被试、跨扫描仪泛化能力,无需重训练或微调,也不需要解剖对齐或刺激重叠。这项工作向非侵入式脑解码的通用基础模型迈出了关键一步。
查看 arXiv 页面(https://arxiv.org/abs/2604.08537)
查看 PDF(https://arxiv.org/pdf/2604.08537)
GitHub8(https://github.com/ezacngm/brainCodec)
添加到收藏(https://huggingface.co/login?next=%2Fpapers%2F2604.08537)
在本地调用:
hf papers read 2604.08537
未安装最新 CLI?
curl -LsSf https://hf.co/cli/install.sh | bash
引用该论文的模型 0
暂无模型关联此论文
在模型 README.md 中引用 arxiv.org/abs/2604.08537 即可在此页面显示。
引用该论文的数据集 0
暂无数据集关联此论文
在数据集 README.md 中引用 arxiv.org/abs/2604.08537 即可在此页面显示。
引用该论文的 Spaces 0
暂无 Space 关联此论文
在 Space README.md 中引用 arxiv.org/abs/2604.08537 即可在此页面显示。
收录该论文的合集 0
暂无合集包含此论文
创建合集(https://huggingface.co/new-collection)并添加该论文即可在此页面显示。
相似文章
Brain-CLIPLM:基于脑电压缩语义表征的语言重建解码
研究人员提出Brain-CLIPLM,一个两阶段脑电到文本解码框架,利用对比学习提取语义锚点,并结合基于检索的大语言模型(LLM)及思维链(CoT)推理进行句子重建。该方法在测试中达到67.55%的Top-5句子检索准确率和85.00%的Top-25准确率,显著优于直接解码基线模型,跨被试评估证实了其良好的泛化能力。研究结果表明,脑电到文本解码应聚焦于恢复压缩后的语义内容,而非完整句子重建。
Brain Score 追踪语言的共享属性:来自多种自然语言和结构序列的证据
本文研究了 Brain Score(一个将语言模型表征与人类阅读时 fMRI 激活进行比较的指标)是否真正捕捉到类似人类的语言处理,或仅反映结构相似性。研究人员在多种自然语言和非语言结构数据(基因组、Python、嵌套括号)上训练语言模型,发现在不同语言和非语言序列上训练的模型达到相似的 Brain Score 性能,这表明该指标可能不足以区分人类特有的处理方式。
教导大脑自我发现
这篇博客探讨了机器学习与神经科学的交叉领域,特别关注利用多元分类技术分析神经影像数据,以理解大脑功能和行为。
No-Worse Context-Aware Decoding:在上下文条件生成中防止中性退化
本文提出了一种名为 NWCAD(No-Worse Context-Aware Decoding)的解码阶段适配器。该方法旨在防止“中性退化”问题,即大语言模型(LLM)在处理无信息量上下文时,错误覆盖原有正确答案。NWCAD 采用双流架构设计,并通过门控机制实现对无上下文解码的安全回退。
人工神经网络中的多模态神经元
OpenAI 在 CLIP 中发现了多模态神经元,它们在不同模态(视觉、符号、文本)中对同一概念做出响应,这与生物神经元的行为相似,解释了该模型在困难视觉任务上的鲁棒性。这项可解释性研究为我们理解视觉-语言模型如何组织和表示抽象概念提供了深刻见解。