一种基于无训练扩散模型的真实场景下人到人的虚拟试衣方法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
一种基于无训练扩散模型的真实场景下人到人的虚拟试衣方法
申请号:CN202510972599
申请日期:2025-07-15
公开号:CN120876206A
公开日期:2025-10-31
类型:发明专利
摘要
本发明公开了一种基于无训练扩散模型的真实场景下人到人的虚拟试衣方法,属于虚拟试穿和计算机视觉技术领域。该方法无需额外训练,仅需用户提供指示服装区域的掩码,即可实现真实场景下高质量的跨人虚拟试穿。其步骤包括:构建语义对应关系,利用预训练扩散模型提取目标人物图像和服装图像的深度语义特征并建立像素级匹配;基于语义对应关系采用MLS方法变形服装,结合文本描述通过Stable Diffusion‑Inpainting填充未覆盖区域生成初始结果;通过DDIM反演和掩码‑外观注意力实现外观迁移,增强服装细节并保持背景一致性;引入高频特征损失引导去噪过程,提升服装纹理保真度。本发明能适应真实场景,降低用户门槛,生成的试穿结果在服装细节、背景及非服装区域一致性方面表现优异,适用于电子商务等领域。
技术关键词
虚拟试衣方法 图像 控制点 高频特征 语义特征 场景 变形服装 计算机视觉技术 中间层 关系 表达式 变形方法 特征提取器 查询特征 衣服 注意力 文本 像素