回覆列表
  • 1 # cnBeta

    人工智慧監控的興起極為令人擔憂。政府集體追蹤和識別公民的能力可能會終止公眾的匿名性。但是,正如研究人員一次又一次地表明的那樣,有很多方法可以“欺騙”這些系統。

    最新的例子來自比利時魯汶大學的一組工程師。在上週在預印本伺服器arXiv上分享的一篇論文中,這些學生展示了簡單的印刷圖案如何能夠“欺騙”人工智慧系統,該系統旨在識別影象中的人物。

    這些學生打印出特別設計的彩色斑塊並將其掛在脖子上,從AI的角度來看,這可能相當於“隱形斗篷”。

    正如研究人員寫道:“我們相信,如果我們將這種技術與精緻的服裝模擬結合起來,我們就可以設計出一種T恤印花,可以讓一個人對自動監控相機幾乎不可見。”

    這可能看起來很奇怪,但它實際上是AI世界中一個眾所周知的現象。這些型別的模式被稱為對抗性示例,它們利用計算機視覺系統的弱點來“誘騙它們看到”不存在的東西。

    在過去,對抗性的例子被用來欺騙面部識別系統。然而許多研究人員警告說,對抗性的例子具有潛在的危險性。例如,它們可以用來欺騙自動駕駛汽車,或者它們可以欺騙用於識別疾病的醫療AI視覺系統。這可以用於醫療欺詐或甚至故意造成傷害。

    對於最近的研究 - 我們透過谷歌研究員David Ha發現 - 一些警告確實適用。最重要的是,學生開發的對抗彩色斑塊只能欺騙一個名為YOLOv2的特定演算法。這不適用於谷歌或其他科技公司開發的現成的計算機視覺系統,當然,如果一個人正在檢視影象時,它也不起作用。

  • 中秋節和大豐收的關聯?
  • 剛開的面膜掉地上了,怎麼辦?