HSG:双曲场景图

Hugging Face Daily Papers 论文

摘要

# 论文页面 - HSG:双曲场景图 来源:[https://huggingface.co/papers/2604.17454](https://huggingface.co/papers/2604.17454) 在你的 agent 中获取这篇论文:`hf papers read 2604\.17454` 还没有最新的 CLI?`curl \-LsSf https://hf\.co/cli/install\.sh \| bash` ## 引用本文的模型0 暂无模型关联此论文 在模型的 README.md 中引用 arxiv\.org/abs/2604\.17454,即可从此页面链接到它\. ## 引用本文的数据集0 暂无数据集关联此论文 引用 arxiv\.org/abs/2604\.

场景图表示通过对物体及其关系进行建模,实现了结构化的视觉理解,并已广泛用于多视图和三维场景推理。现有方法(如 MSG)在欧几里得空间中利用对比学习和基于注意力的关联来学习场景图嵌入。然而,欧几里得几何无法显式地捕捉场所与物体之间的层次蕴含关系,从而限制了所学表示的结构一致性。为此,我们提出了 Hyperbolic Scene Graph(HSG),在双曲空间中学习场景图嵌入,层次关系可通过几何距离自然编码。实验结果表明,HSG 在保持强大检索性能的同时,提升了层次结构的质量。在图级别指标上提升最为显著:HSG 的 PP IoU 达到 33.17,Graph IoU 最高达到 33.51,超过最优 AoMSG 变体(25.37)8.14,凸显了双曲表示学习在场景图建模中的有效性。代码:https://github.com/AIGeeksGroup/HSG。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 07:20

论文页面 - HSG: Hyperbolic Scene Graph

来源:https://huggingface.co/papers/2604.17454 在 agent 中获取这篇论文:

hf papers read 2604\.17454

还没有最新的 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash

引用此论文的模型0

暂无模型引用此论文

在 model 的 README.md 中引用 arxiv.org/abs/2604.17454 以从此页面建立链接。

引用此论文的数据集0

暂无数据集引用此论文

在 dataset 的 README.md 中引用 arxiv.org/abs/2604.17454 以从此页面建立链接。

引用此论文的 Spaces0

暂无 Space 引用此论文

在 Space 的 README.md 中引用 arxiv.org/abs/2604.17454 以从此页面建立链接。

包含此论文的合集0

暂无合集包含此论文

将此论文添加到合集 (https://huggingface.co/new-collection)以从此页面建立链接。

相似文章

GlobalSplat: 通过全局场景标记实现高效的前馈式三维高斯散射

Hugging Face Daily Papers

GlobalSplat 引入了一种高效的前馈框架,用于三维高斯散射,通过全局场景标记实现紧凑且一致的场景重建,将计算开销和推理时间降低至78毫秒以下。该方法采用从粗到细的训练策略,防止表示膨胀,同时以显著更少的高斯原语(16K)达到有竞争力的新视角合成性能,与密集基线相比更为高效。

tencent/HY-World-2.0

Hugging Face Models Trending

HY-World 2.0 是腾讯开源的跨模态3D世界模型,能够从文本、图像和视频中重建和生成3D世界,生成可编辑的3D资产(网格/高斯泼溅),效果与闭源方法相当。