返回

Magic Clothing: 可控服装驱动图像合成

4/17/2024
https://www.chatbro.cn/news/661fbdac47bf717ff219a690
cover

这段文字描述了一种基于潜在扩散模型(LDM)的网络架构,用于一个新的由服装驱动的图像生成任务。该任务的目标是生成穿着目标服装的定制化角色图像,同时使用多样化的文本提示。在这个过程中,图像的可控性非常关键,尤其是要保留服装的细节并忠实于文本提示。为了实现这一点,研究者们引入了一种服装提取器来捕捉详细的服装特征,并通过自注意力融合技术将这些特征整合到预训练的LDM中,以确保目标角色上的服装细节保持不变。同时,他们利用联合分类器自由引导技术来平衡服装特征和文本提示对生成结果的控制。

此外,所提出的服装提取器是一个插件模块,适用于各种微调后的LDM,并且可以与ControlNet和IP-Adapter等其他扩展结合使用,以增强生成角色的多样性和可控性。研究者们还设计了一种名为Matched-Points-LPIPS(MP-LPIPS)的鲁棒性度量标准,用于评估目标图像与源服装之间的一致性。广泛的实验表明,他们提出的“Magic Clothing”在各种条件控制下的服装驱动图像生成任务中取得了最先进的结果。

总结来说,这项研究通过引入服装提取器和自注意力融合技术,成功实现了对服装细节和文本提示的精确控制,并通过联合分类器自由引导和MP-LPIPS度量标准进一步提升了图像生成的质量。这项工作在服装驱动的图像生成领域达到了新的高度,并为未来的研究提供了新的方法和工具。