首頁>資訊>

黑人弗洛伊德死亡所引發的全國抗議,愈演愈烈,所涉及的廣度也在不斷擴大。人臉識別技術由於“識別”這個關鍵詞,不可避免地被捲入了漩渦之中。

當地時間10日,一向強硬的美國亞馬遜公司也罕見“服軟”,宣佈將暫停對美國警察提供面部識別技術。這一舉動,是弗洛伊德事件影響力深入美國社會的又一標誌。

事實上,不久前另一家大公司IBM,也已經宣佈停止使用面部識別技術和分析軟體。更早前,微軟也從網上刪除了人臉識別資料庫,這個資料庫中擁有上千萬張人臉圖片資料。

作為執法部門面部識別軟體的著名供應商,亞馬遜的這項技術因為誤認黑人,此前曾廣受批評。但與其他公司相比,亞馬遜一直拒絕改變,堅稱自己的工具準確無誤。

但根據一份調查測試,亞馬遜的人臉識別技術與“色盲”的區別也不是很大。測試白人臉龐的失誤率為0.3%,但到了黑人男性這裡,錯誤率陡然提升到了12%,如果是黑人女性,失誤率甚至達到了35%。

同一款識別軟體,測試黑人與白人時,錯誤率最高居然相差了100多倍。而且在識別黑人時,似乎不能準確分辨出是男是女。如此離譜的資料下,亞馬遜的辯解顯得極為蒼白無力。

人臉識別技術區分性別時,可以根據男女的骨骼特徵來區分,這通過優化技術完全可以做到。

所以在識別黑人男女時,離譜的失誤率背後,透露出這麼一種訊號,那就是隻要能夠識別出是黑人就行了,是黑人男還是黑人女,並不是他們所關心的。

亞馬遜一項與地方警察合作的專案中,人臉識別技術被用於門鈴的攝像頭上,當它檢測到可疑人員時,就會上傳視訊或照片到地方警局。出發點倒是沒問題,可攝像頭捕捉的“可疑人員”,幾乎全都是有色人種。

這已經是擺在明面上的歧視了。參議員愛德華•馬基表示,這種合作關係“很容易建立一個監控網路,給有色人種帶來危險的負擔,並加劇當地社群的種族焦慮”。

馬基口中的這種“焦慮”,還是太過委婉了點,種族觀念深入美國社會,歧視已經融入了社會的每一個角落,最終體現在生活的方方面面。

面部識別像許多其他形式的人工智慧一樣,具有悠久的種族偏見歷史。背後還有一個重要原因,就是從事人工智慧領域的美中國人,絕大多數都是白人男性,黑人幾乎沒機會參與此領域。

直到弗洛伊德之死再次把它推到了明面上,示威者們近期在不斷攻擊,這些提供面部識別技術的公司。但作用或許也很有限,亞馬遜雖然暫停了服務,但也只持續一年而已。

某種程度上來說,亞馬遜或是其他科技公司的變化,不過是社會壓力驟增下的一種緩兵之計,明面上發表宣告支援黑人運動,實則繼續執行內部的政策和慣例。

只要躲過了這陣風頭,繼續和美國各地警察合作,並依舊僱傭大批白人,那麼黑人的處境,依然不會有什麼變化。人臉識別依然還會是“白臉識別”,這恐怕就是美國黑人的困局所在。

最新評論
  • 1 #

    這個現象說明開發者餵給機器的主要是白人的人臉資料,黑人的人臉資料用的太少,訓練不充分導致識別效果不行。這是人潛意識裡的自我中心思想,如果沒有多文化多種族背景是人提供建議,還真不容易意識到這個問題。讓我想到大一的時候做一個課程大作業,是製作一個下雨自動關窗的裝置,結果答辯的時候老師問下雪怎麼辦,我和我合作的同學都是南方人,沒有一個考慮過這個問題。

  • 2 #

    這也能怪人家機器?

  • 3 #

    慶幸的是,國內的人臉識別系統是國內自己開發的。否則,如果繼續用國外的人臉識別系統,那我們目前可能也是相同的境地。

  • 4 #

    太黑了,看不清楚,特別是在晚上

  • 5 #

    看看他們的護照黑白影印件,唉!

  • 6 #

    一團黑,機器無法通過視覺明暗判斷場景深度。

  • 7 #

    這個不能說歧視,別隨便往歧視上套,黑成一團機器掃描不出來正常

  • 8 #

    這也是事?的確看不清楚啊……怎麼辦啦……

  • 9 #

    表示自己也不黑,人臉識別老失敗,到現在我支付寶都沒開通人臉識別

  • 10 #

    黑色識別演算法估計要難一倍

  • 11 #

    本來就是黑的,識別不岀來很正常。客觀事實啊,怎麼就歧視了,美國真是魔怔了

  • 12 #

    一團黑,也算歧視嗎

  • 3本作者大大最好的一本小說,劇情讓人拍手叫好,連看三遍也不膩
  • 一石二鳥!庫克突然宣佈,特朗普始料不及:這是被拋棄了?