-
1 # cnBeta
-
2 # 至頂網
從本質層面來講,deepfake相當於人臉加聲音克隆AI技術的結合,計算機藉此生成的影片可創造出足以亂真的顯示效果。
為了開發出高質量的deepfake偽造成果,開發人員需要不斷積累克隆目標的面部/聲音素材,包括與本人表現非常相似的其他模仿者素材,總影片片段需求量往往高達數十小時。
Deepfake的實際建立需要兩人的參與,一人(大多為知名人物)提供目標面部/聲音,另一人(普通人即可)則提供形體輪廓。
從技術到現實
從技術的角度來看,視覺deepfake需要利用機器學習工具進行設計。這類工具能夠將與兩人相關的全部面部表情影象,解碼並拆分成由一系列關鍵屬性(例如位置)組成的矩陣,並將雙方同一目標的鼻子、眼睛與嘴巴對映起來。與此同時,機器學習一般認為面板紋理及鬍子等細節屬於次要屬性,對於偽造效果的影響相對較小。
一般來說,以這樣的方式進行解構時,我們就能利用剝離出來的元素重新構建面部的原始影象。此外,決定deepfake實際質量的一大核心要素,在於最終影象的重建效果——重建效果越好,模仿者的面部活動與模仿目標的五官越是協調統一。
伊利諾伊理工大學斯圖爾特商學院副教授兼研究員Matthew Dixon對這一問題做出了詳盡說明。他在採訪當中指出,目前利用某些程式與技術重建面部與聲音已經不是難事:
“一旦對目標進行了數字克隆,就可以製作出其說出任何言語的偽造影片,包括在社交媒體上發表惡意宣傳的影像。普通社交媒體使用者根本無法分辨該影片是真是假。”
同樣的,在談到deepfake技術的積極作用時,Ethereum Express(一套跨平臺deepfake解決方案,期盼自有區塊鏈創新模型加權益證明共識協議)公司CEO Vald Miller在採訪中表示,影象合成過程實際用到了GAN機器學習技術,即透過演算法部署兩套神經網路,透過彼此對抗強化偽造效果。
其中第一套神經網路負責生成影象樣本,第二套則嘗試將真實樣本與偽造樣本區分開來。GAN的工作原理基本等同於兩個人結對工作,第一人負責偽造,第二人則嘗試將複製品與原件區分開來。如果前者的偽造效果不好,後者能夠很快分辨出真偽,接下來前者再據此改進偽造手法、製造出更為逼真的結果。
關於deepfake影片可能給大眾帶來的負面社會與政治影響,麻省理工學院資深區塊鏈/加密貨幣專家、FTI Consulting高階執行董事Steve McNew在採訪中指出:
“線上影片正迅速成為最主流的資訊來源。設想一下,如果社交媒體和新聞媒體瘋狂地,或者悄無聲息地篡改某些影片片段,會帶來怎樣的影響。例如,偽造警方公佈的攝像內容,或者讓處境艱難的政客或國家領導人發表極具煽動性的演講,都會令廣大民眾信以為真。Deepfake技術,確實很有可能被用於進行惡意宣傳及其他形式的欺詐活動。”
源於deepfake的惡意用例
由於deepfake技術能夠很好地篡改並模仿現實世界當中,真人目標的面部特徵與性格特徵,因此人們普遍擔心其被用於各類邪惡的目的。
此外,最近幾年來,網際網路上開始出現大量簡單的操作教程,教導人們如何建立以數字化方式篡改過的音訊/影片資料。這一切,已經開始令各類人臉識別系統陷入癱瘓。
不僅如此,最近還出現了一系列令人感到不安的音訊/影片篡改例項,促使人們對deepfake的危害做出深刻勸。例如,最近有一篇文章提到,自2014年誕生至今,deepfake技術已經能夠製作出非常精良的影片。其中的人物不僅能夠表達某些情感,甚至還能體現某些種族性或者年齡性的特徵。在這方面,生理生物識別技術供應商Aerendir公司CEO Martin Zizi在採訪中解釋道:
“AI技術並不是從錯誤當中學習,而是從簡單的統計結果當中學習。某些細節看似微小,但以統計資料為基礎的AI技術卻能利用規模極大的素材庫將其識別出來,並轉化為多維統計分析結果。這可真是成也統計學,敗也統計學。”
Zizi還補充道,人臉識別的一大特點,在於它實際上基於非常脆弱的神經網路。從結構的角度來看,這些網路就像是一座宏偉的大教堂——看似堅不可摧,但移除一塊基石,整棟建築就有可能瞬間崩潰。為了進一步闡釋這個問題,Zizi表示:
最近deepfake技術還在財務層面捅出一個大婁子。某位未公開姓名的英國能源公司CEO在騙子的誤導下,將22萬歐元(摺合24.3萬美元)轉移到某個未知的銀行賬戶。他當時天真地認為電話那頭就是他的老闆,該公司母集團的總CEO。但實際上,詐騙者偽造了音訊,利用deepfake成功攻陷了這位企業高管。
區塊鏈有望抵禦deepfake衝擊
根據Witness Media Lab最近釋出的長達72頁的報告,區塊鏈技術被視為一種有望抵禦deepfake相關數字威脅的合法工具。
在這方面,人們可以利用區塊鏈製作數字簽名,用以直接或者間接確認接收到的影片或者音訊檔案是否真實可信。因此,特定影片當中包含的數字簽名越多,其可靠程度也就越高。
“影片內容一經建立,就會被儲存在區塊鏈上,同時附有驗證簽名或者圖形,這無疑給deepfake的操作設下了障礙。但是,這也要求我們第一時間將影片內容存放在區塊鏈上,同時嚴格強調內容的來源與創作者。可以想見,這種從源頭上保護資料並在媒體當中推廣新型標準的做法,還有很長的普及道路要走。”
McNew還認為,憑藉著區塊鏈的整體不可變性,一旦特定資料區塊被網路確認,內容就將無法變更。因此,如果讓影片(或者照片)在傳播之前首先交由區塊鏈驗證程式處理,那麼人們就能很輕鬆地識別出據此偽造的影片(照片)。
最後,Miller也提出了類似的觀點。他認為區塊鏈技術與AI相結合,有助於解決deepfake帶來的一系列隱私與安全問題。他補充道:
“AI技術能夠完美解決資料的收集、分析、分類與傳輸工作,顯著提升內部流程的執行速度與質量。在另一方面,區塊鏈則負責「保證」AI的工作內容不受他人干預——包括保護資料及其序列不受篡改影響。”
區塊鏈技術也有自身侷限性
就目前來講,區塊鏈技術當中仍存在一些小缺陷,這些缺陷導致其無法很快被用於監控網際網路上的deepfake活動。首先,對於初學者而言,該技術的總體可擴充套件性仍然嚴格受限,特別是考慮到處理數字化影片/音訊素材時帶來的巨量計算及記憶體資源消耗。
“如果來自某貧窮國家的使用者必須先向矽谷科技企業提出申請才能上傳影片,那麼他們還有可能將資訊傳遞給全世界嗎?我們能夠放心把決斷之力交給這些科技企業嗎?如果無法建立信任,那麼自由也將不復存在。”
分散式賬本系統Bitlattice(利用多維網格結構解決區塊鏈技術的可伸縮性、安全性以及時序等技術問題)締造者兼公司創始人Hibryda也抱有類似的觀點。他認為:
“區塊鏈技術的最大缺點,在於無法確定媒體簽名是否真實可信。但這並不是區塊鏈或者說技術層面的內部問題——畢竟區塊鏈的作用僅僅是提供難以篡改的分類賬,如此而已。所以面對這類外部矛盾,並沒有很好的解決辦法。雖然以民眾為基礎的驗證流程有望解決問題,但人群同樣可以被操控,因此構建起一套能夠可靠、客觀地進行事實查證的系統,幾乎是項不可能完成的任務。”
但Forst在採訪中也提到,雖然大多數人覺得利用區塊鏈檢測deepfake活動似乎成本過高,但目前出現的幾種開源解決方案似乎有望帶來可行性。最後,Forst總結道:“區塊鏈最大的缺點,在於它只能在一定程度上解決deepfake問題,而無法徹底將其消滅。”
-
3 # AI應用前沿
過去幾年裡,Deepfake(深度偽造)技術備受關注。然而,Deepfake技術尚且還未走向主流,因此還有充足的準備時間加以預防此種威脅的實質性影響。
「對於Deepfake,每個人都或多或少地會產生道德恐慌,但事實上我們日常所看的影片中幾乎沒有完全真實的。相比之下,人們所看到的更多的是所謂的『shallowfakes』,比如貼錯標籤、錯誤剪輯的音影片內容,這是一種最好的也是最有效的套路。我們所需要做的就是改變整個社會對該技術的認識,而達成社會共識無疑是需要時間的。」
我們有理由對「能夠戰勝新型虛假資訊」持積極態度。「首先,這個問題受到了越來越多的關注和重視。其次,大量的科技公司正在攜手積極推進虛假資訊的識別問題。」
但除此之外,虛假資訊追蹤的境況可能開始會更加嚴重,一段時間之後才會逐漸步入正軌。「在正式回擊之前,毫無疑問我們會經歷較長的的試驗階段。」
回覆列表
上月推特表示即將引入一項新政策,以幫助打擊偽造照片,以及包括照片、影片和音訊在內的“操縱性媒體”,也就是那些明顯改變其原始含義和目的,或者看起來像是發生了某些事情的內容。今天,推特公佈了這項新政策的草案,希望在正式釋出之前徵詢公眾的意見。
這項新政策,旨在解決當前網際網路上日益嚴重的Deepfake問題。Deepfake通俗來說就是AI換臉,是人工智慧的一項分支。2017年的Deepfake色情影片引起轟動,這種透過深度學習,將A的面容移植到B的臉上的技術開始被大眾熟知,該行為引起公眾不滿,相關政府也開始研究立法禁止此行為。
而藉助人工智慧技術,Deepfake還可以延伸到影片、音訊和照片等諸多媒體上,因此眼見的也不一定是真實的。為此今年7月美國弗吉尼亞州出臺了相應的修正案,規定未經許可分享某人影片的裸照照片或影片是違法的,無論是真實還是虛假的,這其中包括Deepfake合成的影像。違法這項規則屬於第一類輕罪,最高可判12個月的監禁,罰款額高達2500美元。
今年10月上旬,參議院情報委員會的兩名成員Mark Warner(D-VA)和Marco Rubio(R-FL)呼籲大型科技公司制定一項計劃,以打擊其平臺上的虛假內容。參議員要求11家科技公司(包括Facebook,Twitter,YouTube,Reddit和LinkedIn)提出一項計劃,以制定行業標準,以“儘快共享,刪除,存檔和應對合成內容的分享”。
Twitter在本月晚些時候宣佈了其計劃,以徵詢公眾對該政策的反饋。同時,亞馬遜與Facebook和微軟合作,共同支援DeepFake Detection挑戰(DFDC),該挑戰旨在開發檢測可操縱媒體的新方法。
今天,Twitter正在詳細介紹其Deepfake政策的草案。該公司表示,當發現有意試圖誤導或混淆人們的合成或操縱媒體時,它將:
● 在共享合成或操縱媒體的推文旁邊放置通知;
● 在人們透過合成或操縱的媒體分享或喜歡推文之前警告人們