文章预览
题目:DualDiff+: Dual-Branch Diffusion for High-Fidelity Video Generation with Reward Guidance paper:https://www.alphaxiv.org/abs/2503.03689 github:https://github.com/yangzhaojason/DualDiff DualDiff: Dual-branch Diffusion Model for Autonomous Driving with Semantic Fusion accepted by ICRA2025. 在自动驾驶领域,如何高精度且高保真地重建驾驶场景是一个关键挑战。当前的方法往往采用有限的条件信息来生成场景,例如依赖3D边界框或鸟瞰图(BEV)道路地图对前景和背景进行控制。这类简化的条件编码存在明显局限,难以全面刻画真实驾驶场景的复杂性,导致与基于视角的图像生成模型不匹配,从而出现生成结果不准确等问题。具体来说,现有方案主要面临以下痛点: 条件编码不充分 :许多方法使用的条件表示(如3D边界框、BEV语义图等)过于简化,无法充分表征场景中的丰富信息。这种欠完善的条件输入会与图
………………………………