首頁>科技>

當下的流行趨勢真是一天一個樣,昨天抖音和微博上還是人人翻跳泫雅的《I’m Not Cool》,今天就改發魔性十足卻又略顯沙雕的《螞蟻牙黑》了!

相信用過或看過這類影片的朋友已經瞭解其內容了,大致就是藉助一個軟體就可以將一張照片中的靜態人像改為節奏感豐富且能隨伴奏歌唱的動態畫面。

其實,在古早的美圖秀秀時代,各種美化或惡搞照片的操作已經十分常見了。

抖音出道,背後另有高人

同以往我們瞭解的抖音特效不同,此次“螞蟻牙黑”風潮的發起者並非是抖音,而是一款名為Avatarify的軟體。

Avatarify是一個基於人臉識別技術的社交影片應用,開啟應用後,你可以將任何人臉識別後疊加設定好的動態表情GIF,並加上流行歌曲做音樂背景,然後分享到網路上。

雖然今年Avatarify才流行開來,但該程式的開發者Ali Aliev早在去年年初就藉助arxiv預印本伺服器上發表的“First Order Motion Model for Image Animation”的開原始碼來構建Avatarify。

Ali Aliev

First Order Motion是由義大利特倫託大學(University of Trento)以及美國Snap公司的研究人員開發的,它可以使用一個人的影片(比如演員的鏡頭)來“改造”另一個人的照片,而不需要事先對目標影象進行任何訓練。

這算是一種技術上的進步。因為傳統的Deepfake“換臉術”演算法是需要在你想要變換的人臉上進行訓練的,通常需要幾張你想要動態化的人臉影象。

但First Order Motion這個模型可以透過對目標的相似類別(比如人臉)進行訓練,來實時完成演算法的實現。

“我在PC上運行了First Order Motion這個模型,結果讓我很驚訝。最重要的是,它的工作速度足夠快,可以實時驅動一個虛擬人物,”Aliev說,“開發一個原型只需要幾個小時。”

起初,Aliev把自己扮成埃隆·馬斯克,然後參加與同事的Zoom線上會議。雖然明顯是個假的,但“馬斯克”的眼睛和頭部運動順暢,還是把同事們嚇了一跳。

“Avatarify之後的迭代瞄準的是可用性和趣味性。當然,它需要一臺強大的遊戲PC才能順利執行,但我們認為針對膝上型電腦的最佳化只是時間問題,”Aliev說,“它只是讓人們在居家隔離的日子裡找點樂子罷了。”

“死而復生”

如果說Avatarify提供的還只是休閒娛樂,那麼接下來介紹的內容則不免使人感到毛骨悚然。

上週日,國外家譜網站MyHeritage推出了一款工具“Deep Nostalgia”(深度懷舊),該工具可以利用Deepfake技術將使用者死去親屬的照片製作成動畫。

48小時內,就有超過100萬張照片使用了Deep Nostalgia功能。

Deep Nostalgia服務是使用以色列公司D-ID授權的AI技術來製造靜態照片移動的效果,有點像iOS的Live Photos功能。

但Deep Nostalgia可以處理任何相機拍攝照片,並讓它們“活”起來。

使用時,使用者必須在MyHeritage上註冊一個免費賬戶,然後上傳照片。之後,整個過程便是自動化的;網站會先增強影象,然後再將其動畫化並建立一個GIF。

在MyHeritage網站上,維多利亞女王、林肯和弗洛倫斯·南丁格爾等歷史人物都被“復活”。

目前,Deep Nostalgia只能處理單張頭像,而且只能對臉部進行動畫處理。

對於這一功能,有些人可能會覺得“不太舒服”,而另一些人則充滿了驚奇和感動。

有些人看到他們未曾謀面的祖先眨眼、微笑,有些人則是在多年後目睹他們失去的親人可以“活過來”而感動得流淚。

“看到他再次微笑,我很開心。”一位使用者在將4年前去世的丈夫的照片做成動畫後說。

此前,英國政府正在考慮對Deepfake技術進行立法。

MyHeritage表示,“為了防止技術濫用,它特意沒有在功能中加入語音選項。”

“偽造”也有邊界

Deepfake,是“Deep Learning”(深度學習)和“fake”(虛假)的合成詞,其對影片、音訊和文字的處理效果類似於Photoshop的。

經由該技術改造後,現有影象或影片中的人會被替換成其他人的肖像。

雖然偽造內容的行為並不新鮮,但Deepfake利用機器學習和人工智慧的強大技術來操縱或生成具有高欺騙潛力的視覺和音訊內容。

目前,用於建立Deepfake內容的機器學習方法主要基於深度學習和訓練生成式神經網路架構,如自動編碼器或生成式對抗網路(GANs)。

2020年被稱為“Deepfake成為主流的一年”,因為它的使用從幾年前的網際網路陰暗角落,迅速發展到在廣告、電視節目甚至紀錄片中越來越廣泛的使用。

隨著銀行和其他金融服務逐漸依賴透過自拍和影片進行數字身份驗證,新的Deepfake技術也對銀行、加密貨幣交易所和其他越來越多地使用影象和影片來驗證身份的企業構成嚴重的威脅。

然而,如果說還有哪些群體會是Deepfake技術的直接受害者,全球近40億的女性群體恐怕聲量最高。

2019年的一份報告發現,96% 的Deepfake網路影片是色情的,並且專門針對女性。

早期的Deepfake假照片集中在女明星身上,但是使用名人照片和社交媒體私人照片甚至偷拍女性照片的Deepfake已經有所上升。

最近的一項調查發現,一個由人工智慧驅動的 Telegram 機器人允許使用者以數字方式“剝離”穿著衣服的女性。

根據這份報告,絕大多數的目標是個人,大多數影象似乎是從目標的社交媒體賬戶或其他私人渠道拍攝的,“這些人可能不知道自己已經成為了目標”。

截至2020年10月,已有10.4萬至70萬名婦女和兒童成為目標受害者。

換句話說,這些工具的擴散意味著,任何女性只要自己或他人在網上定期釋出影象或影片,即便只是些正常的影象或影片,都有可能被篡改成“十分露骨”。

由於Deepfake可能會被誤認為是真實的影象或影片,因此其潛在的社會、職場和個人影響非常嚴峻。

正所謂,畫面“不真實”並不意味著對受害者造成的傷害就不真實。

亡羊補牢,未為晚矣

正是由於Deepfake的潛在威脅,各國政府和各大媒體公司開始將主要關注點放在Deepfake檢測上。

例如,五角大樓的國防高階研究專案局(DARPA)正在資助對Deepfake的研究,Twitter、Facebook和YouTube近年來也都更新了政策,將Deepfake檢測納入其中。

在韓國,一份內容為“請大力懲治導致女明星受害的非法Deepfake圖片”的網上請願書獲得了超過37.5萬個簽名,目標直指韓國公司Scatter Lab及其聊天機器人Lee Luda。

目前,韓國已經宣佈Deepfake影片為非法,這種犯罪行為最高可處5年監禁和高額罰款。

然而,檢測Deepfake只是千里之行的第一步,距離提供一個最終的解決方案還相去甚遠。

最終,技術解決方案本身只能提供這麼多。它們必須與政策和社會解決方案相結合,以提供一個全面的應對之道。

4
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 電商壹周|快手產品矩陣日活逼近5億