@JulieKallini: Fast Byte Latent Transformer 被 ICML 2026 接收!字节级语言模型有望摆脱子词分词器,但解码……
摘要
快速字节潜在变换器(BLT-D)已被 ICML 2026 接收,它引入了一种文本扩散方法,用于并行字节级解码,以克服传统字节级语言模型的速度限制。
Fast Byte Latent Transformer 被 ICML 2026 接收!⚡🥪
字节级语言模型承诺让我们摆脱子词分词器,但一次解码一个字节非常慢。
我们用 BLT-D 让 BLT 生成更高效:用于并行字节解码的文本扩散。1/ https://t.co/ZIvUgavXvt
查看缓存全文
缓存时间: 2026/05/11 20:42
快速字节潜在Transformer已被ICML 2026接收!⚡🥪
字节级语言模型有望让我们摆脱子词分词器,但一次解码一个字节的速度非常慢。
我们通过 BLT-D 使 BLT 生成更高效:用于并行字节解码的文本扩散。1/ https://t.co/ZIvUgavXvt
相似文章
快速字节潜在Transformer
本文介绍了用于字节级语言模型的BLT扩散(BLT Diffusion)和投机解码技术,在保持生成质量的同时,显著降低了生成延迟和内存带宽成本。
TextLDM:利用连续潜在扩散进行语言建模
本文介绍了 TextLDM,这是一种通过将离散标记映射到连续潜在空间,从而将视觉潜在扩散Transformer适配于语言建模的方法。研究表明,该方法在表示对齐的增强下,达到了与 GPT-2 相当的性能,并统一了视觉与文本生成的架构。
跨分词器LLM蒸馏:基于字节级接口的方法
本文提出字节级蒸馏(BLD),一种简单的跨分词器知识迁移方法,通过在共享的字节级接口上操作,在1B-8B参数模型上实现了与更复杂现有方法相当或更优的性能。
LEAP:通过前瞻早期收敛令牌检测释放 dLLM 并行潜力
本文介绍了 LEAP,这是一种无需训练的方法,旨在通过检测早期收敛令牌来加速扩散语言模型(dLLMs)的推理过程。该方法能在不损失准确性的前提下,将去噪步骤减少 30%。
BitLM:利用位级连续扩散解锁多 Token 语言生成
本文介绍了 BitLM,一种利用位级连续扩散并行生成多个 Token 的语言模型,旨在克服传统自回归生成的顺序瓶颈,同时保留因果结构。