多模态生成框架新SOTA:文本+空间+图像随意组合,20W+数据开源,复旦腾讯优图出品
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
能处理任意条件组合的新生成框架来了!
复旦大学、腾讯优图实验室等机构的研究人员提出UniCombine,一种基于DiT的多条件可控生成框架,能够处理包括但不限于文本提示、空间映射和主体图像在内的任意控制条件的任意组合,并保持高度的一致性和出色的和谐性。
具体效果belike:
据了解,现有的多条件可控生成框架或是只能处理单一种类的多个条件,或是只适用于某种特定的多类别组合,从而普遍缺乏通用性的多类别+多条件的组合式生成能力。
此外,团队构建并开源了首个针对多条件组合式生成任务设计的数据集SubjectSpatial200K,其中涵盖了subject-driven和spatially-aligned两大类控制条件。
UniCombine在4项不同的多条件可控生成任务上均达到SOTA,证明了新方法具有卓越的框架通用性和出色的条件一致性。
UniCombine框架图如下:
(a)整体框架。团队将基于MMDiT的扩散模型视为由文本分支和去噪分支组成。在此基础上,UniCombine引入了多个条件分支来处理输入条件。
(b)UniCombine的单条件设置。该设置等价于OminiControl,即在单条件设置下,OminiControl是UniCombine框架的特例。
团队的SubjectSpatial200K数据集旨在填补当前多条件生成任务中缺少公开可用数据集的空白。现有数据集未能同时包含主体驱动和空间对齐的标注。
最近,Subjects200K数据集提供了一个面向主体驱动生成的公开数据集。
在此基础上,团队构建了SubjectSpatial200K数据集,这是一个高质量的统一数据集,专为训练和测试多条件可控生成模型设计。该数据集包含全面的标注,包括丰富的SubjectGroundingAnnotation和SpatialMapAnnotation。数据集的构建流程见图。
(1)对比实验
(2)消融实验:CMMDiT与MMDiT
(3)消融实验:DenoisingLoRA与Text-LoRA
(4)消融实验:DSB+SSB联合训练与DSB单独训练
(5)算力开销分析
整体而言,研究人员提出了UniCombine,这是一个基于DiT的多条件可控生成框架,能够处理任意条件组合,包括但不限于文本提示、空间映射和主体图像。
在主体插入、主体-空间以及多空间等条件生成任务上的大量实验表明,无论是无训练还是基于训练的版本,UniCombine都达到了最先进的性能。
此外,团队提出了SubjectSpatial200K数据集,以弥补当前缺少用于训练和测试多条件生成模型的公开数据集的不足。团队相信,该研究将推动可控生成领域的发展。
论文链接:https ://arxiv.org/pdf/2503.09277开源代码:https ://github.com/Xuan-World/UniCombine
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
—完—
学术投稿请于工作日发邮件到:
ai@qbitai.com
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文/项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
🌟点亮星标🌟
科技前沿进展每日见