标签
本文通过证明注意力图的尖锐度并非视觉-语言模型正确性的良好预测指标,挑战了“注意力-置信度假设”。相反,研究表明,隐藏状态的几何特征和自一致性更能反映模型的可靠性,并揭示了晚期融合模型与早期融合模型在架构上的显著差异。
本文介绍了When2Tool,一个研究LLM代理实际何时需要调用工具的基准,并揭示模型已从隐藏状态知道工具的必要性但未能采取行动。提出的Probe&Prefill方法将不必要的工具调用减少了48%,且精度损失极小。
Proprioceptive AI发布了Cygnus,这是一款为冻结的LLM配备自感知适配器的工具,通过gl(4,R)李代数读取内部隐藏状态以隔离暗模式,将Qwen-32B在ARC-Challenge上的分数从82.2%提升到94.97%,仅使用一张RTX 3090且无需重新训练。