2018-08-09 19:23:43聖天使

DARPA造出首個AI假視頻“剋星”,不自然動作成為破綻

用人工智能製作的假視頻片段也可以被人工智能發現。近日,美國國防部運行的一個項目開發出了第一個通過 AI 技術捕捉色情和假新聞的取證工具。
 
近幾年,隨著 AI 技術的發展,其在造假上的應用也引起了政府方面的注意。法庭有關專家正急於找到能檢測出 AI 合成視頻的方法,因為機器學習技術可以很容易地製作出以假亂真的虛假視頻,這些視頻可能被用來散佈虛假信息或騷擾他人。
 
 
                              
 
                                  圖丨在這個視頻中,尼古拉斯凱奇的臉被套到了特朗普臉上
 
 
製作虛假視頻最常見的手段是用機器學習技術把一個人的臉換到另一個人身上,由此產生的視頻被稱為“deepfakes”。這種視頻製作簡單,而且非常逼真。如果由一個熟練的視頻編輯進一步的調整,可以使視頻看起來更加真實。
 
 
視頻造假中使用的一種機器學習技術,即生成建模,讓計算機從真實數據中學習,然後生成統計上相似的假數據。最近的一個技術突破是生成式對抗網絡,這種技術可以基於兩個神經網絡來實現更逼真的造假。
 
 
此次捕捉 deepfakes 的工具源於 DARPA (美國國防高級研究計劃局 ) 負責的名為“媒體取證”項目。該項目原本是為了自動化現有的取證工具,但最近將注意力轉向了人工智能造假。
 
“我們在目前由 GAN 生成的圖象和視頻中發現了一些微妙的線索,讓我們能夠檢測到造假的存在,”媒體取證項目的負責人 Matthew Turek 說。
 
 
    

 
其中,一種非常簡單的技術是由紐約州立大學奧爾巴尼分校教授 Siwei Lyu 和他的一名學生領導的團隊開發出來的。“我們製作了大約 50 個假視頻,並嘗試了一些傳統的取證方法,但這些方法並不總是奏效。”研究人員介紹說。
 
 
但某一天下午,Lyu 在研究幾個假視頻時發現,用 deepfakes 製作的人臉很少眨眼,甚至根本不會眨眼。當他們眨眼的時候,眼睛的運動是不自然的。這是因為 deepfakes 是在靜止圖象上訓練的,這些圖象往往顯示一個人睜著眼睛的圖象。
 
 
其他參與 DARPA 挑戰的人也在探索類似的自動捕捉 deepfakes 的技巧,奇怪的頭部運動、奇怪的眼睛顏色等等。達特茅斯大學的數字取證專家 Hany Farid 表示:“我們正致力於利用這些生理信號進行造假識別,至少就目前而言,這些生理信號很難被 deepfakes 模仿。”
 
 
           

 
DARPA 的 Turek 說,DARPA 將舉辦更多的競賽,“以確保開發中的工具能夠檢測到最新的造假技術。”
 
這些取證工具的出現標誌著視頻偽造者和數字偵探之間的 AI 技術競賽開始。Farid 說,一個關鍵的問題是機器學習系統可以被訓練得比取證工具更靈活。
 
 
Lyu 表示,熟練的偽造者只要收集一個人眨眼的圖象,就可以繞過他的眨眼工具。但他補充說,他的團隊已經開發出了一種更有效的技術,該技術目前暫時保密。Lyu 說:“我們現在比偽造者有一點優勢,我們希望保持這一優勢。”-----(DeepTech深科技)
 
-End-
 
編輯:LXQ
 
參考:https://www.technologyreview.com/s/611726/the-defense-department-has-produced-the-first-tools-for-catching-deepfakes/