首頁>家居>

  今年3·15晚會曝光的第一個案例,是“直擊人臉識別,誰在‘偷’我的臉?”在這組新聞中,多個商家被曝光了一系列未經顧客授權的行為,包括利用監控裝置採集人臉資訊、識別顧客身份、儲存資訊等。

  萬店掌工作人員說,面對不戴口罩的人臉,系統的識別準確率大約有95%,戴上口罩的人也有80%-85%的機率被準確識別。除此之外,公司為商家提供的“人臉互動營銷解決方案”,還能透過照片分析人的性別、年齡、甚至被抓拍時的心情。

  提供人臉識別攝像頭的公司遠不止這一家,他們的客戶覆蓋也十分廣泛,寶馬等車廠的4s店,MaxMara等服裝店,甚至超市,都會有類似的攝像頭分佈。重要的是,所有的資料收集和分析,都在顧客不知情的前提下展開。

  不過,根據國家市場監管總局釋出的《個人資訊保安規範》,人臉資訊屬於生物識別資訊,也屬於個人敏感資訊,收集個人資訊時應獲得個人資訊主體的授權同意。

  我們不得不擔心更多的問題:連同面部資訊一起,其他個人資訊資料儲存在哪裡,它們是否被用來盈利、是否有洩露的風險?

  哪個環節需要我們特別警惕?我們是否會在遍佈四周的監控技術裡被“溫水煮青蛙”、習慣了它的存在,還是真的有某一個不能碰的人性和隱私底線?

  自己的身份,連同一舉一動,都暴露在一個全知全能的監視者之下|圖蟲創意

  “順暢”刷臉的隱憂

  其實,如果單論技術本身,面部識別技術已經發展了相當長一段時間了,其技術原理也並沒有很複雜。和其它的影象識別一樣,它的原理是提取影象中的特徵,然後判定這個特徵是否與資料庫中的特徵符合、有多少機率是同一張臉。最近幾年,因為機器學習的快速發展,機器對於面部特徵的提取和識別能力,亦有了飛速進展。2016年的時候,谷歌基於 ImageNet 訓練出來的影象識別模型,準確度已經超越了人類,速度自然也是不在話下。

  這其實和真正的“人工智慧”還差得很遠。但因為它的應用實在太廣,嵌進了無數的使用場景中,而應用過程又十分地順暢,給人一種“智慧”的錯覺。

  “順暢”,是面部識別技術的一大特徵。在推崇這個技術的人眼裡,它最大程度地模仿了人和人之間的互動,即用“看”即可。畢竟,用眼睛識別一個人的臉,是我們人類與生俱來的功能。你拿起你的 iPhone,就會自動解鎖;走進家門,門會自動開啟;進入學校和辦公室等需要安保的場所,不用停下查證件……

  但這種順暢的互動,從另外一個角度看,是“沒有互動”。一切都無縫地、在無聲無息之間發生。也就是說,很多時候我並不能以知情的方式,給出我的同意。我用我的指紋必須按在門鎖上,這個“按”的動作,亦是我在與機器“對話”——我現在需要開門了。而我只是在攝像頭面前“出現”,我的臉就已經給出了所有的訊號,不管我想不想。

  我只是在攝像頭面前“出現”,我的臉就已經給出了所有的訊號,不管我想不想。|圖蟲創意

  這也是為什麼人臉識別技術可以非常“隱蔽”。它是一個不需要給出“知情同意”就可以應用的技術。它出現了,它應用了,但你不知道。而知情同意的缺失,也讓隱私洩露變得極其容易。到底有多少攝像頭在我身邊,跟蹤我、記錄我?我是不是已經在不知不覺中“丟失”了我的臉?這些問題,想起來略微有一些可怕。

  如何用臉“重建”一個你?

  但更進一層的恐懼,來自於面部識別背後的運轉邏輯——它是如何處理、如何匹配、如何運用面部資訊的。

  我們人有許多可供識別的生物特徵,包括指紋、虹膜、面部特徵,乃至基因等等,都有潛在的資料化的可能。它們可以被記錄,可以被複制,可以被傳播,可以散見在網際網路各處——公安系統裡有我們的指紋,微信裡錄下了我們的聲音,而我們上傳到社交網路的照片上都有我們的臉。美國加州大學聖迭戈分校(UCSD)技術社會學教授凱莉·蓋茨(Kelly Gates)將其稱為“去身化的身份”(disembodied identity)。

  我們的身份已然“離開了”我們身體,我們甚至不再對其有掌控。

  但是,面部識別技術的關鍵在於,這些獨一無二的生物資訊資料,怎麼和更多的技術、更大的資料庫、更廣的系統中的各式各樣的關於我們的碎片拼起來,湊成一個完整的“自己”。

  將一個人的面部特徵作為加密資訊、開啟我的手機“刷臉”,和將一個人的臉解碼成為“我的身份”,在更大的系統裡流轉(和公安系統匹配的監控),雖然都是“刷臉”,但卻是截然不同的刷法。

  我們的身份已然“離開了”我們身體,我們甚至不再對其有掌控|圖蟲創意

  如果你的臉只是用來開啟你家的門,那麼你的臉除了重建出“你是這個家的主人”之外,並沒有任何別的意義。

  但當這個資料從你的小世界來到了“雲端”,與更大的資料庫相交、互相印證,那麼你自己的身份,也就更加無所遁形——你是誰,你家在哪裡,你大概處於社會中什麼樣的地位,你昨天網購的東西,你的“健康碼”、你的身份證號……即使證件號碼等重要資訊洩露可能性小,但只要有足夠多的其它資料,“重建”一個你,並不會太困難。

  我們和深淵之間,並沒有多少堅實的保護。

  利益讓技術跑得越來越快

  紐約長島大學的技術倫理學家安東·阿爾特曼(Anton Alterman)在一篇論文中指出,生物資訊識別的隱私風險,主要存在於幾個方面:

  1)一個技術是否能準確識別出一個特定個人的真實社會身份;

  2)資訊是否只留存於本地、還是在更廣的網路中流動、使用;

  3)使用一個技術是否需要使用者的協作;

  4)技術開發者是否有保護隱私的動力。

  當下的面部識別技術,正挑戰著全部四個方面。面部資料可以準確識別個人;資料互通帶來濫用的危險;使用的時候,甚至無需知情同意。而最後一點可能是解題的關鍵——保護資料隱私的動力從何而來?它們能對各方帶來什麼好處?而誰又從中獲利?誰在其中有發言權?

  在那場人工智慧大會上,我著實領會到了生產端的動力,以及客戶的購買力。人工智慧作為一個新興產業,得到了大量的投資,而投資者需要看到技術投入應用、看到回報。於是,面部識別技術被包裝為各種各樣的“解決方案”,打包出售給商業客戶。是他們最有能力購買這些技術作為“解決方案”,而這種購買力,很大程度上決定了面部識別技術的研發走向。

  一個有面部識別解鎖功能的手機,或者能刷臉開門的智慧門鎖,對我們普通使用者的吸引力並沒有那麼大。畢竟,指紋也能解鎖,密碼也能開門,不“雲端”“智慧”也無妨。但對於公共場所的經營者以及各級管理部門而言,全面而有效的監控,身份的精準識別,乃至收集、使用資料以獲益,帶來的好處十分巨大,比“保護隱私”更加重要。強大的推動力,讓技術開發越走越遠,且越來越向經營者、管理者、客戶,而不是實際使用者傾斜。

  人臉識別技術越來越向經營者、管理者、客戶,而不是實際使用者傾斜|圖蟲創意

  在面部識別這個技術的很多應用場景裡,使用者發出的聲音是有限的,有的時候甚至是無力的。我們有選擇“不使用”的權力嗎?我們的意願能夠得到重視嗎?我們是否能夠判斷,一個技術運用在什麼地方是合適的、在什麼地方是過度的?理想的市場場景裡,我們可以用腳投票;而當下的市場,資本的強大加上資訊的不透明,讓使用者處於無權、無聲的劣勢。

  無處不在的攝像頭,讓這個社會變得越來越像福柯筆下的“環形監獄”(Panopticon)——監控無處不在,能看到所有人、識別所有人,而被觀看者甚至無法得知監控在哪裡、從何而來。一個良性發展的技術,不應該是這樣。

  技術的“潛臺詞”

  技術一旦投入社會,就不再僅僅是“工具”了。一個技術的使用,資料與資料構建的身份,為人與人、人與機構之間的關係定下了基調,也為這些“資料”賦予了社會含義。在購房處被“識別”,意味著我們和售樓處的關係,變成了“奸商”和待宰的購房客之間的關係;在公司的樓道里,因為多蹲了10分鐘廁所而被“識別”,意味著我們和公司的關係,變成了資本家和必須要被壓榨出每一分鐘勞動力的打工人的關係。

  但我們之間的關係,一定、必須是這樣的嗎?我們真的沒有別的選擇了嗎?在商業交易中,雙方應該是站在平等對話的基礎上協商交易的關係;在僱傭勞動中,雙方應該是相互信任、付出勞動並得到回報的關係。面部識別和監控技術的濫用,扭曲了這種關係,將公平與信任踩在腳下。

  面部識別和監控技術的濫用,將公平與信任踩在腳下|圖蟲創意

  隱私是人格尊嚴的一部分——它代表著一個人有能力且有權利支配自己的空間,不受他人的干擾;也意味著對隱私的保護,能夠最大程度地尊重人的自由和創造性,而不是把人看作一個隨時需要監控、需要操縱的螺絲釘。不管技術如何發展,我們的底線是,一個安全、方便的社會,不應該以犧牲人的尊嚴為代價。

  所以,技術背後的“潛臺詞”,可能比技術本身更加重要。追問技術存在的理由,追問技術與人的關係,是讓一個技術變得不再“可怕”的第一步。

  比如,在人流密集的公共場所,機場、火車站等地,我們實際上是讓渡自己一部分的隱私,去換取方便、安全;這用別的方式或許很難達到、不夠經濟;或許能夠阻止巨大的災難——911事件發生時,監控錄影實際上已經拍到了恐怖分子的臉,但並沒有識別出來。

  我們讓渡自己一部分的隱私,去換取方便、安全|圖蟲創意

  但在小區、在學校、在火鍋店,每個場景都是不同的,都有著自己的“潛臺詞”——為什麼要用它?資料的作用是什麼?資料儲存在哪裡?除了這個方法之外,有沒有別的方法?這對被監控、被識別的人的好處在哪裡?是否知情、是否予以了同意?這些都是在技術被應用之前,需要提出的問題。

  希望我們將來的社會,還能讓我們坦然“面”對。

  參考文獻

  [1]Gates, K。 A。 (2011)。 Our biometric future: Facial recognition technology and the culture of surveillance (Vol。 2)。 NYU Press。

  [2]Alterman, A。 (2003)。 ``A piece of yourself‘’: Ethical issues in biometric identification。 Ethics and information technology, 5(3), 139-150。

  [3]Van Oenen, G。 (2006)。 A machine that would go of itself: interpassivity and its impact on political life。 Theory & event, 9(2)。

  [4]Introna, L。 D。 (2005)。 Disclosive ethics and information technology: Disclosing facial recognition systems。 Ethics and Information Technology, 7(2), 75-86。

13
  • 秋天養茉莉,進入“衰弱期”,多曬少澆水,“保命”是第一!
  • 大紅酸枝沙發,值不值得收藏看這裡