英伟达联合团队推出Fast-dLLM框架,大幅提升扩散模型推理速度

DoNews2025-06-03

近日,英伟达与麻省理工学院、香港大学合作推出Fast-dLLM框架,旨在解决扩散模型(Diffusion-based LLMs)在实际应用中的效率瓶颈。尽管扩散模型采用双向注意力机制具备理论优势,但其高昂的计算成本和多词元同步解码时的质量下降问题,限制了其广泛应用。Fast-dLLM通过引入块状近似KV缓存机制和置信度感知并行解码策略,显著优化性能。其中,KV缓存将序列划分为块并预计算激活值,减少...

网页链接
免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法