回覆列表
-
1 # cnBeta
-
2 # 沂水智囊團
很難,在《越獄》中就有與影片造假的相關片段。單單從聲音來說,聲音的傳播所導致裝置收集到的聲音是不一樣的,然而造假的就會出現各種各樣的漏斗,即使你考慮的很全面也有可能會有在某方面會出現漏洞。影象的造假就更難了,從走路的姿態,步伐,步間距等等就有很多區別。
所以影片造假很難,這不是簡單的PS,即使是PS也會留下痕跡,所以影片造假就更男。
隨著AI和機器學習技術的不斷髮展難度也在不斷變小。
Deepfake是一種利用AI和機器學習將人的臉疊加到另外一個人的身體上的技術。現在,研究人員正在讓其更進一步,這要得益於一種能讓影片看起來更加逼真的方法。近日,來自卡內基梅隆大學和Facebook現實實驗室的研究人員在德國舉行的歐洲計算機視覺會議(ECCV)展示了這套系統。
它建立在生產對抗網路(GAN) AI計算上,該演算法可將一種樣式的影象轉移到另外一種樣式上。Recycle-GAN不僅使用了空間資訊還使用時間資訊來排列兩個影片的幀進而達到改進系統的目的。
研究人員指出,隨著時間的推移,這些額外的資訊將會進一步限制這一過程併產生更好的效果。
在上面這段影片上我們可以看到斯蒂芬·科爾伯特是如何重複約翰·奧利弗的臺詞的,這其中包括了點頭、挑眉、嘴型模仿等細節。
這種技術同樣還能被用到盛開的花朵、日出、日落、雲和風等非人臉的物件上。研究人員在論文中寫道,最令人印象深刻的是人類行為方式的轉變,例如“約翰·奧利弗微笑時的酒窩、唐納德·特朗普的嘴型特徵以及斯蒂芬·科爾伯特的嘴型和微笑。
除了可以被用到傳播假新聞,Deepfake還經常被用來惡搞名人,他們的臉被貼到成人電影明星身上從而製造出虛假的名人色情影片。Pornhub在今年早些時候已經禁掉了這些影片。上個月,美國國防部則製作了第一批捕捉deepfake影片的工具。