近日,一項發表於美國《國家科學院院刊》的研究指出,如今,人工智慧塑造的人臉逼真到能夠以假亂真,讓人很難區分,甚至人們更信任這些“假臉”。
計算機生成的虛擬人臉非常有說服力,甚至可以愚弄那些訓練有素的觀察者。這些虛擬人臉很容易在網上下載,並被用於網路詐騙和偽造社交媒體檔案。
“我們應該為此感到擔憂,因為這些合成的面孔在達成一些邪惡目的,比如色情報復或欺詐方面非常有效。”英國蘭開斯特大學的Sophie Nattingale說。
人工智慧程式透過生成式對抗網路(GANs),學會建立與真實影象越來越難以區分的假影象。
Nattingale和美國加利福尼亞大學的Hany Farid招募了315名未經培訓和219名受訓的試驗參與者,看他們能否將400張假人與400張真人照片區分開。研究人員又要求另外223名參與者對同一組面孔的可信度進行評分,評分範圍為1到7分。
研究人員發現,未經培訓的參與者對照片的判斷初始準確率為48.2%;接受過計算機生成人臉識別培訓的參與者對照片判斷的準確率為59%。此外,參與者對人工合成面孔的信任度平均比真實面孔的信任度高8%。其中排在最不值得信任的臉的前4張都是真人照片,而最值得信任的臉的前3張都是合成的假人照片。
Nattingale指出,這可能是因為合成人臉看起來更像“普通”人,而人們更傾向於信任這種典型面孔。
“我們需要建立更嚴格的道德準則和法律框架,因為不可避免地會有人想利用(這些影象)對他人造成傷害,這令人擔憂。”Nattingale指出,為了降低這一風險,開發者可以在他們製作的合成影象上新增水印,表明其為虛擬圖片。
“在我看來,目前情況已經夠糟糕的了。如果我們再不採取措施進行約束,情況只會更糟。”Nattingale說。(徐銳)
來源: 中國科學報