Meta推出Garment3DGen:可基于图片定制3D服装(3d服装图片怎么做的)
近日,Meta 研究团队提出了一种以单张输入图像为指导,从基础网格合成 3D 服装资产的新方法——Garment3DGen。
据介绍,Garment3DGen 是一种可以从 2D 图像生成 3D 网格服装中风格化几何形状和纹理的方法,可以将其安装到参数化身体上并进行模拟 3D 服装生成和应用。
给定 RGB 图像,研究团队首先使用单视图到多视图一致的图像生成技术进行 3D 重建,将此输出网格用作 3D 伪地面实况来指导网格变形过程,以使输入网格几何形状变形以匹配目标。其输出几何体保留了输入几何体的结构和拓扑结构,在颈部/手臂/腰部区域包含孔,因此它们可以适合身体,并且具有良好的网格质量,可以进行物理仿真。最后,纹理估算模块可生成高保真纹理贴图,这些贴图具有全局和局部一致性,并能忠实捕捉输入导向,从而渲染生成的 3D 资产。
借助 Garment3DGen,用户可以生成自己选择的纹理3D服装,而无需艺术家干预。人们可以提供文字提示来描述他们想要生成模拟就绪的 3D 资产的服装。