為了使3D人類頭像廣泛使用,我們必須能夠生成各種不同身份和形狀的3D虛擬人,以滿足任意的需求。這項任務是具有挑戰性的,因為穿著衣服的身體形狀的多樣性,他們複雜的銜接,以及由此產生的豐富的,但隨機的幾何細節的服裝。因此,目前表示三維人的方法並沒有提供一個完整的穿衣人的生成模型。在本文中,我們提出了一種新的方法,該方法可以學習生成穿著各種服裝的人的詳細的三維形狀,並有相應的換膚權重。具體來說,我們設計了一個多主體的前向蒙皮模組,該模組只需從每個主體的幾組未經修飾的掃描圖中學習。為了捕捉服裝中高頻細節的隨機性,我們利用了一種對抗性損失公式,鼓勵模型捕捉基本的統計資料。我們提供的經驗證據表明,這導致了諸如皺紋等區域性細節的真實生成。我們表明,我們的模型能夠生成穿戴各種詳細衣服的自然人類形象。此外,我們還表明,我們的方法可以用於將人類模型與原始掃描進行擬合,其效能優於以前的最先進水平。
《gDNA: Towards Generative Detailed Neural Avatars》
論文地址:http://arxiv.org/abs/2201.04123v1