快到年底了,各行各業可謂是加快腳步創造領域“奇蹟”,最近一直在網上衝浪的我,竟然發現了最近更新的兩個炫酷技術,瞭解完之後瞬間對科技層面又有了一個新認知!
好東西怎麼能私吞!必須擺到檯面上跟大家聊一聊~
咳咳…接下來!請大家做好筆記!認真聽講!
HeadGan
什麼是HeadGan?就是以3D面部資料和透過音訊特徵驅動合成讓一張靜幀圖片動起來~
其實近幾年一直有人在研究怎麼只參考影象就能解決可解決的頭部講話的動態合成問題,雖然也一直有著不錯的進展,但是每一次或多或少都存在些問題,比如沒辦法滿足身份保持或者是有的照片的真實性不是很理想,尤其是最後合成的頭部非常不自然等。
但這次推出的HeadGan,是一種全新的方法,完全打破常規,克服了以上種種問題,它的特別之處主要在於以3D人臉表現特徵為條件進行合成,可以從任何影片中提取所需要的內容來適應參考影象的臉部幾何形狀,主要透過音訊特徵作為補充輸入,最關鍵的是此次還改善了最困難的嘴部運動,讓整個過程看起來更加自然流暢,包括臉部表情編輯、臉部正面化的真實性也都可以充分應用HeadGan來完成。
方法?什麼實踐都離不開初期的理論,借鑑3D可變模型(3DMM)中的理論知識做引導,不斷深入,這樣在實際操作中步驟就可以儘可能的簡單化,首先重建並渲染3D人臉,然後根據參考的影象和驅動幀,調整引數,最後用音訊特徵作為HeadGan的補充輸入來改善嘴部運動,這一系列操作下來,不想整好都不行。
技術開發者為了方便大家理解還貼心的釋出了一個流程圖,大概意思就是生成包括兩個子網路,一個密集流網路˚F和一個呈現網路ř,密集流網路F根據3D人臉輸入計算,主要確保用於扭曲參考影象和特徵的流暢性,然後渲染網路R使用視覺資訊以及音訊特徵,來方便將3D面部輸入轉換成像本來照片裡一樣的逼真影象。(讀不懂可略過)
這一技術感覺被普及就是時間問題,操作簡單易上手,像現在網際網路發展迅速,涉及領域廣泛,而且HeadGan可以給任何原影象進行3D面部建模,像平常的視訊會議等都可以很好的運用。
TransforMr
什麼是TransforMR?在解釋之前!必須要吹爆它一下!因為這一項技術真的是用最簡單的軟體和移動裝置來做出最有意思、最好玩的事情~
TransforMR是一種可以在移動裝置裡轉換現實系統,從而把影片裡的物體替換成虛擬3D物體的技術,在不受控的現實世界環境中創造出不一樣的混合現實場景(虛擬+現實)!簡而言之,就是一個基於Unity系統,可以在環境中新增AR物件!使用的人可以用Ipad Pro和Unity來實時轉換現實生活中的物件,並且使用人完全可以根據自己的喜好決定想要探索什麼樣的環境,然後生成什麼樣的環境和主題。
先放一個影片讓大家簡單瞭解一下!
接下來,可以把影片簡單拆分為幾個內容:
TransforMR會將真實所存在的場景轉換為虛擬+現實,比如現實世界裡有一個人在路邊散步,那麼這時候“這個人”就成為了被替換的物件,變換後的場景就會出現一個虛擬物件,在現實世界裡的“人”做出的行經路線和動作,在另一個轉換的場景裡,虛擬物件也會做出一樣的動作和反應。
操作過程其實也沒有什麼太大的難度,就是用最簡單的移動裝置拍攝,然後檢測幀上的物件,進行分割,確定好想要檢測的物件之後進行移除再使用修復和3D,對轉換空間中的物件姿勢和動作進行渲染即可。
每一個轉換的畫面都可以設定不同的場景主題,完全可以根據你的想法來調整,比如影片裡列舉了“萬聖節”主題,可以清晰的看到馬路上的汽車都轉換成了南瓜馬車,行程路徑也都是完全按照原影片的軌跡執行。
除此之外,按照影片裡面人物互動模式構成場景的示例,拍攝人員利用最簡單的手機就能輕鬆捕捉到一個人或者多個人的動作,其實就跟動作捕捉非常相似,不管是場景中的人物大跳還是做出什麼幅度比較大的動作,都能夠輕鬆偵測,並實時轉換到虛擬物件上。
當然在一個場景中,也可以渲染多個物件。
技術部門為了能夠讓更多的使用者可以簡單的使用,還專門針對平板電腦和手機的相容性進行了測評,為此提出最合理化的解決方案,簡直不要太貼心!
透過對這兩個技術的基本瞭解,感覺現在的科技發展更是滲透到生活的每一個細節,用最簡單的裝置和最短的時間做出最高效率的作品。
今天介紹的這兩個炫酷技術有沒有讓你對科技的發展有什麼大膽啟發呢?有嘗試、有想法的不妨來聊一聊啦