來自Data & Society的一份新報告引發了人們對影片欺騙性改變的自動化解決方案的疑慮,包括機器學習改變的影片deepfakes等。作者Britt Paris和Joan Donovan 認為,雖然deepfakes是新的,但卻是媒體操縱歷史悠久的一部分 - 需要社會和技術修復。依靠人工智慧實際上可以透過將更多資料和權力集中在私營公司手中來使事情變得更糟。
Paris表示,“圍繞deepfakes的恐慌證明了快速的技術解決方案無法解決結構性不平等問題。這是一個龐大的專案,但我們需要找到同時涵蓋社會及政治方面的解決方案,所以沒有權力的人不會被排除在外。”
正如Paris和Donovan所看到的那樣,只有技術本身將不能解決deepfakes問題。報告中寫道:“媒體與真相之間的關係從未如此穩定。” 在19世紀50年代,當法官開始在法庭上允許攝影證據時,人們不相信新技術,並且首選見證證詞和書面記錄。到了20世紀90年代,媒體公司透過選擇性地編輯晚間節目中的影象來參與歪曲事件。“這些影象是真實的影象,”報告說。“操縱的是他們如何在有線電視上全天候進行情境化、解釋和廣播。”
今天,透過允許人們使用機器學習操縱影片和影象,deepfakes甚至進一步操縱,其結果幾乎不可能用人眼檢測到。現在,該報告稱,“這任何擁有公共社交媒體資料的人都是公平的遊戲。”一旦虛假影片存在,它們就可以在幾秒鐘內在社交媒體上大規模傳播。
為了解決這個問題,Facebook最近宣佈它正在釋出一個數據集,允許人們測試旨在檢測利用deepfakes影片的新模型。像TruePic這樣使用AI和區塊鏈技術來檢測被操縱照片的初創公司也開始獲得動力。最近,美國國防部高階研究計劃局(DARPA)投資了Medifor,後者研究影片畫素的差異,以確定什麼時候被篡改。但是,幾乎所有這些解決方案的目標都是在捕獲點(即拍攝照片或影片時)或在檢測級別(以便更容易區分篡改和未篡改的內容)之間進行操縱。
“如果要制定一項deepfakes法律,則需要考慮言論自由,”他補充道,如果人們使用deepfakes進行違法行為 - 例如勒索某人 - 他們可能會根據現行法律受到起訴。
但Paris擔心人工智慧驅動的內容過濾器和其他技術修復可能會造成真正的傷害。她說道:“他們為某些人做得更好,但可能會讓其他人變得更糟。設計新的技術模型為公司創造了可以捕獲各種影象並建立線上生活庫的空間。”
《Deep Fakes: 對隱私,民主和國家安全的迫在眉睫的挑戰》論文的合著者Bobby Chesney卻並未將資料收集視為一個問題。“我認為,如果不加管制,私人實體將獲得更多資訊,”他說道。“但這種本來就很糟糕的想法讓我覺得沒有說服力。”
Chesney和Paris 同意需要某種技術修復,並且它必須與法律系統一起起訴不良行為者並阻止偽造影片的傳播。“我們需要談論緩解和限制傷害,而不是解決這個問題,”Chesney補充道。“Deepfakes將不會消失。”
來自Data & Society的一份新報告引發了人們對影片欺騙性改變的自動化解決方案的疑慮,包括機器學習改變的影片deepfakes等。作者Britt Paris和Joan Donovan 認為,雖然deepfakes是新的,但卻是媒體操縱歷史悠久的一部分 - 需要社會和技術修復。依靠人工智慧實際上可以透過將更多資料和權力集中在私營公司手中來使事情變得更糟。
Paris表示,“圍繞deepfakes的恐慌證明了快速的技術解決方案無法解決結構性不平等問題。這是一個龐大的專案,但我們需要找到同時涵蓋社會及政治方面的解決方案,所以沒有權力的人不會被排除在外。”
正如Paris和Donovan所看到的那樣,只有技術本身將不能解決deepfakes問題。報告中寫道:“媒體與真相之間的關係從未如此穩定。” 在19世紀50年代,當法官開始在法庭上允許攝影證據時,人們不相信新技術,並且首選見證證詞和書面記錄。到了20世紀90年代,媒體公司透過選擇性地編輯晚間節目中的影象來參與歪曲事件。“這些影象是真實的影象,”報告說。“操縱的是他們如何在有線電視上全天候進行情境化、解釋和廣播。”
今天,透過允許人們使用機器學習操縱影片和影象,deepfakes甚至進一步操縱,其結果幾乎不可能用人眼檢測到。現在,該報告稱,“這任何擁有公共社交媒體資料的人都是公平的遊戲。”一旦虛假影片存在,它們就可以在幾秒鐘內在社交媒體上大規模傳播。
為了解決這個問題,Facebook最近宣佈它正在釋出一個數據集,允許人們測試旨在檢測利用deepfakes影片的新模型。像TruePic這樣使用AI和區塊鏈技術來檢測被操縱照片的初創公司也開始獲得動力。最近,美國國防部高階研究計劃局(DARPA)投資了Medifor,後者研究影片畫素的差異,以確定什麼時候被篡改。但是,幾乎所有這些解決方案的目標都是在捕獲點(即拍攝照片或影片時)或在檢測級別(以便更容易區分篡改和未篡改的內容)之間進行操縱。
“如果要制定一項deepfakes法律,則需要考慮言論自由,”他補充道,如果人們使用deepfakes進行違法行為 - 例如勒索某人 - 他們可能會根據現行法律受到起訴。
但Paris擔心人工智慧驅動的內容過濾器和其他技術修復可能會造成真正的傷害。她說道:“他們為某些人做得更好,但可能會讓其他人變得更糟。設計新的技術模型為公司創造了可以捕獲各種影象並建立線上生活庫的空間。”
《Deep Fakes: 對隱私,民主和國家安全的迫在眉睫的挑戰》論文的合著者Bobby Chesney卻並未將資料收集視為一個問題。“我認為,如果不加管制,私人實體將獲得更多資訊,”他說道。“但這種本來就很糟糕的想法讓我覺得沒有說服力。”
Chesney和Paris 同意需要某種技術修復,並且它必須與法律系統一起起訴不良行為者並阻止偽造影片的傳播。“我們需要談論緩解和限制傷害,而不是解決這個問題,”Chesney補充道。“Deepfakes將不會消失。”