黑人弗洛伊德死亡所引發的全國抗議,愈演愈烈,所涉及的廣度也在不斷擴大。人臉識別技術由於“識別”這個關鍵詞,不可避免地被捲入了漩渦之中。
當地時間10日,一向強硬的美國亞馬遜公司也罕見“服軟”,宣佈將暫停對美國警察提供面部識別技術。這一舉動,是弗洛伊德事件影響力深入美國社會的又一標誌。
事實上,不久前另一家大公司IBM,也已經宣佈停止使用面部識別技術和分析軟體。更早前,微軟也從網上刪除了人臉識別資料庫,這個資料庫中擁有上千萬張人臉圖片資料。
作為執法部門面部識別軟體的著名供應商,亞馬遜的這項技術因為誤認黑人,此前曾廣受批評。但與其他公司相比,亞馬遜一直拒絕改變,堅稱自己的工具準確無誤。
但根據一份調查測試,亞馬遜的人臉識別技術與“色盲”的區別也不是很大。測試白人臉龐的失誤率為0.3%,但到了黑人男性這裡,錯誤率陡然提升到了12%,如果是黑人女性,失誤率甚至達到了35%。
同一款識別軟體,測試黑人與白人時,錯誤率最高居然相差了100多倍。而且在識別黑人時,似乎不能準確分辨出是男是女。如此離譜的資料下,亞馬遜的辯解顯得極為蒼白無力。
人臉識別技術區分性別時,可以根據男女的骨骼特徵來區分,這通過優化技術完全可以做到。
所以在識別黑人男女時,離譜的失誤率背後,透露出這麼一種訊號,那就是隻要能夠識別出是黑人就行了,是黑人男還是黑人女,並不是他們所關心的。
亞馬遜一項與地方警察合作的專案中,人臉識別技術被用於門鈴的攝像頭上,當它檢測到可疑人員時,就會上傳視訊或照片到地方警局。出發點倒是沒問題,可攝像頭捕捉的“可疑人員”,幾乎全都是有色人種。
這已經是擺在明面上的歧視了。參議員愛德華•馬基表示,這種合作關係“很容易建立一個監控網路,給有色人種帶來危險的負擔,並加劇當地社群的種族焦慮”。
馬基口中的這種“焦慮”,還是太過委婉了點,種族觀念深入美國社會,歧視已經融入了社會的每一個角落,最終體現在生活的方方面面。
面部識別像許多其他形式的人工智慧一樣,具有悠久的種族偏見歷史。背後還有一個重要原因,就是從事人工智慧領域的美中國人,絕大多數都是白人男性,黑人幾乎沒機會參與此領域。
直到弗洛伊德之死再次把它推到了明面上,示威者們近期在不斷攻擊,這些提供面部識別技術的公司。但作用或許也很有限,亞馬遜雖然暫停了服務,但也只持續一年而已。
某種程度上來說,亞馬遜或是其他科技公司的變化,不過是社會壓力驟增下的一種緩兵之計,明面上發表宣告支援黑人運動,實則繼續執行內部的政策和慣例。
只要躲過了這陣風頭,繼續和美國各地警察合作,並依舊僱傭大批白人,那麼黑人的處境,依然不會有什麼變化。人臉識別依然還會是“白臉識別”,這恐怕就是美國黑人的困局所在。
-
1 #
-
2 #
這也能怪人家機器?
-
3 #
慶幸的是,國內的人臉識別系統是國內自己開發的。否則,如果繼續用國外的人臉識別系統,那我們目前可能也是相同的境地。
-
4 #
太黑了,看不清楚,特別是在晚上
-
5 #
看看他們的護照黑白影印件,唉!
-
6 #
一團黑,機器無法通過視覺明暗判斷場景深度。
-
7 #
這個不能說歧視,別隨便往歧視上套,黑成一團機器掃描不出來正常
-
8 #
這也是事?的確看不清楚啊……怎麼辦啦……
-
9 #
表示自己也不黑,人臉識別老失敗,到現在我支付寶都沒開通人臉識別
-
10 #
黑色識別演算法估計要難一倍
-
11 #
本來就是黑的,識別不岀來很正常。客觀事實啊,怎麼就歧視了,美國真是魔怔了
-
12 #
一團黑,也算歧視嗎
這個現象說明開發者餵給機器的主要是白人的人臉資料,黑人的人臉資料用的太少,訓練不充分導致識別效果不行。這是人潛意識裡的自我中心思想,如果沒有多文化多種族背景是人提供建議,還真不容易意識到這個問題。讓我想到大一的時候做一個課程大作業,是製作一個下雨自動關窗的裝置,結果答辯的時候老師問下雪怎麼辦,我和我合作的同學都是南方人,沒有一個考慮過這個問題。