據悉,英偉達和斯坦福大學聯合推出的 GAN,真是重新整理了 3D GAN 的新高度。與過去傳統的方法相比,GAN 的速度上能快出 7 倍,而佔用的記憶體卻不到其十六分之一。
事實上,只用一張單視角 2D 照片生成 3D 效果,此前已經有許多模型框架可以實現。但是需要計算量非常大, 3D 效果也很一般。
研究人員提出了一種顯隱混合神經網路架構,這種雙重鑑別,可以確保最終輸出影象和渲染輸出的一致性,從而避免在不同檢視下由於卷積層不一致而產生的問題。
據悉,英偉達和斯坦福大學聯合推出的 GAN,真是重新整理了 3D GAN 的新高度。與過去傳統的方法相比,GAN 的速度上能快出 7 倍,而佔用的記憶體卻不到其十六分之一。
事實上,只用一張單視角 2D 照片生成 3D 效果,此前已經有許多模型框架可以實現。但是需要計算量非常大, 3D 效果也很一般。
研究人員提出了一種顯隱混合神經網路架構,這種雙重鑑別,可以確保最終輸出影象和渲染輸出的一致性,從而避免在不同檢視下由於卷積層不一致而產生的問題。