機器之心釋出
機器之心編輯部
在文字生成影象上,文心 ERNIE-ViLG 可以根據使用者輸入的文字,自動創作影象,生成的影象不僅符合文字描述,而且達到了非常逼真的效果。在影象到文字的生成上,文心 ERNIE-ViLG 能夠理解畫面,用簡潔的語言描述畫面的內容,還能夠根據圖片中的場景回答相關的問題。
前不久,百度產業級知識增強大模型 “文心” 全景圖亮相,近日,其中的跨模態生成模型 ERNIE-ViLG 在百度文心官網開放體驗入口,並放出了論文:
體驗連結:https://wenxin.baidu.com/wenxin/ernie-vilg
論文連結:https://arxiv.org/pdf/2112.15283.pdf
據悉,文心 ERNIE-ViLG 引數規模達到 100 億,是目前為止全球最大規模中文跨模態生成模型,該模型首次透過自迴歸演算法將影象生成和文字生成統一建模,增強模型的跨模態語義對齊能力,顯著提升圖文生成效果。
小編帶你體驗文心 ERNIE-ViLG “影象創作”能力:
在文字生成影象上,文心 ERNIE-ViLG 可以根據使用者輸入的文字,自動創作影象,生成的影象不僅符合文字描述,而且達到了非常逼真的效果。
注意!以下圖片都是全新生成,並非可直接搜尋到的原圖。
文心 ERNIE-ViLG 不僅能創作建築、動物等單個物體:
還可以創作包含多個物體的複雜場景:
甚至能根據使用者輸入的文字要求腦洞大開:
對於具有無限想象力的古詩詞,文心 ERNIE-ViLG 也能生成恰如其分的畫面,並根據不同的圖畫風格也有所調整:
油畫風格
中國畫風格
水彩畫風格
此外,還能根據文字提示對圖片進行補全:
而在影象到文字的生成上,文心 ERNIE-ViLG 能夠理解畫面,用簡潔的語言描述畫面的內容:
不僅如此,文心 ERNIE-ViLG 還能夠根據圖片中的場景回答相關的問題:
目前文心 ERNIE-ViLG 在百度文心官網開放體驗的文字生影象 demo 能夠根據古詩詞進行作畫,增強詩詞的畫面感。
在這些能力的背後,究竟蘊含著怎樣的 AI 技術秘密?
跨模態生成:AI 領域極具挑戰性的一道“難題”
跨模態生成,指的是將一種模態 (文字、影象、語音) 轉換成另一種模態,同時保持模態之間的語義一致性。
圖文生成是跨模態生成的挑戰之一。以圖片生成文字為例,文字描述概括性強,根據文字生成圖片,需要考慮大量文字中未涵蓋的細節資訊,具有極高的挑戰性。例如詩句“春江水暖鴨先知”,僅僅描述了江水、鴨子兩個物體和春天這個季節,但沒有具體描述鴨子的顏色、江邊的桃花以及圖中物體之間的位置關係。
春江水暖鴨先知
近些年來,基於生成對抗網路 (GAN) 的方法在人臉、風景等受限領域的文字到影象生成任務上已取得了不錯的效果;DALL-E 透過超大規模的自迴歸生成模型,在影象片段之間建立了前後依賴的關係,從而具備多樣性生成的建模能力,在多樣性更強、難度更大的開放領域文字到影象生成上取得了亮眼的效果。
百度文心 ERNIE-ViLG 模型則進一步提出統一的跨模態雙向生成模型,透過自迴歸生成模式對影象生成和文字生成任務進行統一建模,更好地捕捉模態間的語義對齊關係,從而同時提升圖文雙向生成任務的效果。文心 ERNIE-ViLG 在文字生成影象的權威公開資料集 MS-COCO 上,圖片質量評估指標 FID(Fréchet Inception Distance)遠超 OpenAI 的 DALL-E 等同類模型,並重新整理了影象描述多項任務的最好效果。此外,文心 ERNIE-ViLG 還憑藉強大的跨模態理解能力,在生成式視覺問答任務上也取得了領先成績。
文心 ERNIE-ViLG 技術原理解讀:圖文雙向生成統一建模
百度文心 ERNIE-ViLG 使用編碼器 - 解碼器引數共享的 Transformer 作為自迴歸生成的主幹網路,同時學習文字生成影象、影象生成文字生成兩個任務。
基於影象向量量化技術,文心 ERNIE-ViLG 把影象表示成離散的序列,從而將文字和影象進行統一的序列自迴歸生成建模。在文字生成影象時, 文心 ERNIE-ViLG 模型的輸入是文字 token 序列,輸出是影象 token 序列;影象生成文字時則根據輸入的影象序列預測文字內容。兩個方向的生成任務使用同一個 Transformer 模型。視覺和語言兩個模態在相同模型引數下進行相同模式的生成,能夠促進模型建立更好的跨模態語義對齊。
文心 ERNIE-ViLG 圖文雙向生成統一建模框架
已有基於影象離散表示的文字生成影象模型主要採用兩階段訓練,文字生成視覺序列和根據視覺序列重建影象兩個階段獨立訓練,文心 ERNIE-ViLG 提出了端到端的訓練方法,將序列生成過程中 Transformer 模型輸出的隱層影象表示連線到重建模型中進行影象還原,為重建模型提供語義更豐富的特徵;對於生成模型,可以同時接收自身的抽象監督訊號和來自重建模型的原始監督訊號,有助於更好地學習影象表示。
文心 ERNIE-ViLG 構建了包含 1.45 億高質量中文文字 - 影象對的大規模跨模態對齊資料集,並基於百度飛槳深度學習平臺在該資料集上訓練了百億引數模型,在文字生成影象、影象描述等跨模態生成任務上評估了該模型的效果。
文字生成影象(Text-to-image Synthesis)任務效果
文心 ERNIE-ViLG 文字生成影象的能力在開放領域公開資料集 MS-COCO 上進行了驗證。評估指標使用 FID(該指標數值越低效果越好), 在 zero-shot 和 finetune 兩種方式下,文心 ERNIE-ViLG 都取得了最佳成績,效果遠超 OpenAI 釋出的 DALL-E 等模型。
文心 ERNIE-ViLG 在 MS-COCO 資料集上的效果
影象描述(Image Captioning)任務效果
影象生成文字能力上,文心 ERNIE-ViLG 在 COCO-CN、AIC-ICC 兩個公開中文圖片標題生成資料集上, 都取得了最好成績。
文心 ERNIE-ViLG 在 AIC-ICC 資料集上的效果
生成式視覺問答(Generative VQA)任務效果
在生成式視覺問答方面,文心 ERNIE-ViLG 也展示了不俗的實力。生成式視覺問答要求模型根據影象內容和對應的問題生成答案,模型需要具備深度的視覺內容理解能力和跨模態的語義對齊能力,並需要生成簡短的答案文字,難度極高。文心 ERNIE-ViLG 在 FMIQA 資料集上取得了最好的效果,圖靈測試的透過率達到了 78.5%,優於當前最好方法 14 個百分點。
文心 ERNIE-ViLG 在 FMIQA 資料集上的效果
結語
讓機器具備跨模態生成能力是人工智慧的重要目標之一。在藝術創作、虛擬現實、影象編輯、AI 輔助設計、虛擬數字人等領域,文心 ERNIE-ViLG 這類跨模態大模型有著廣泛的應用前景,也為這些領域未來的發展提供了無限的創意和可能。作為百度 “文心” 大模型全景圖中的重要一員,文心 ERNIE-ViLG 也代表著百度文心在跨模態大模型領域邁出堅實步伐,從技術自主創新和加速產業應用方面持續推動中國 AI 發展。