首頁>科技>

2020,“無語之年”。在即將過去的一年裡,時代的車輪,如同陷落在泥淖一般,既讓世界重歸陌生,也讓世界重返熟悉。如同人類其他的世代一樣,人類眼前的危機,既能讓我們乘勢反覆咀嚼走過的路,也能使我們藉機探觀未來的道。曾經,我們被時代強行推行得太快,忽視了太多的問題;如今,我們被迫停滯在歷史的節點。或許,我們是時候需要在前進道路上出神一下,重估時代及其所創造的。基於人類“出神”的必要,《燕京書評》邀請學人分享他們的情緒與思考。敬請關注年終策劃——“回望2020”。

一個人臉識別的小小魚鉤,到底能夠牽出多少時代的問題?很多。從人工智慧機器演算法、商業邏輯、國與國的競爭到被技術定義的“個體的尊嚴”。

在大資料技術和個人隱私權保護之間,機器演算法有哪些灰色地帶?正在制訂中的《個人資訊保護法》在何種程度上保護個人資訊?從各國立法模式來看,歐洲模式和美國模式的法律體系,對個人資訊的保護的區別主要呈現在哪些方面?它對我國的《個人資訊保護法》又產生了什麼影響?

在商業的邏輯下,既然機器學習可以形成一整套如何去操縱人類行為的知識,那麼個體出於對於自身權利的保護,該如何抵抗機器演算法、商業世界的侵蝕?還是說,人類只能接受被大資料操控的事實?在工具理性取代價值理性的現代社會中,“個體的尊嚴”又如何定義?

就此,《燕京書評》採訪了上海交通大學凱原法學院教授鄭戈。鄭戈的研究領域是憲法學、法理學、政治哲學和社會理論。近年來,主要關注大資料、人工智慧和生命科學等科技前沿領域所涉及的法律問題。

以下為《燕京書評》和鄭戈的訪談錄。

鄭戈,上海交通大學凱原法學院教授,上海高校“東方學者”特聘教授。曾全職任教於北京大學(1998-2003)和香港大學(2004-2014),並曾在密西根大學、多倫多大學、杜克大學和哥倫比亞大學做訪問學者和訪問教授。著有《法律與現代人的命運》,譯有《法律的道德性》《司法和國家權力的多種面孔》等。

大資料時代,傳統的隱私權已經消亡

燕京書評:人臉識別會帶來哪些隱患?

鄭戈:人臉識別是現在比較普遍的生物測定技術當中的一種。人工智慧大資料時代,各種各樣的感測器遍佈在我們生活的周遭。人臉識別、指紋識別、虹膜識別等,都是廣義上的生物識別或生物測定方面的裝置。

人臉識別技術之所以最容易引起恐慌,是因為它具有一些特性。首先是遠端識別性,它不用接觸到我們的身體,比如,如果在小區門口裝一個人臉識別裝置,沒有通知你的話,你很難察覺到。它是以一種非常隱蔽的不太容易為人所察覺的方式來收集我們的個人資訊。

此外,它還有識別唯一性。如果是採集其他的資料,需要資料融合、對大量資料進行分析,才可能定位到某一個特定的人;但是,人臉識別直接就可以定位到某個具體的個人。

它還有關聯驗證性。因為現在很多的商業機構,包括比如說“人臉識別第一案”裡面涉及到的動物園,還有銀行等一些機構,都是把人臉識別作為身份認定的一個非常重要的手段。一旦人臉識別普及開來,在一個場所獲取的你的面部資訊,可能關聯到多個場所當中的應用。一旦你的人臉資訊被濫用、被盜取,會產生一系列的風險,因為在從銀行到各種需要身份認證的這些場所都具有很高的關聯性。

這三個特徵,其實就導致了人臉識別具有比其他的資料採集方式可能更大的風險。比如傳統的資料採集方式,就是你需要填寫一張表格,填寫姓名、年齡、身份證號等。這樣的資料採集方式,都是在你知情的情況下主動去填寫。人臉識別這種方式不需要你主動的填寫任何東西,在這個方面,知情同意就很難做到。

燕京書評:大資料技術和個人隱私權保護之間有哪些灰色地帶?

鄭戈:目前的大資料分析技術所涉及到的對個人資料的利用,有很多時候是個人所不知道的。它可以採集各種資料,包括無結構資料,很多一開始可能和個人沒有太大關係,分析以後才能產生一個結果,綜合出一個個人畫像。

在大資料時代,傳統的隱私權很難得到充分的保障,實際上已經消亡了。傳統的隱私權是基於某種空間想象的,它區分了公共空間和私人空間。如果你在一個私人空間裡面,比如在自己的家裡,你的隱私預期就會非常高,而法律也保護這種隱私預期。傳統時代,如果要侵犯個人的隱私權,可能需要跑到你的家裡面偷偷地裝一個攝像頭,或者像狗仔隊那樣拿一個帶有遠焦鏡頭的照相機來拍攝。

現在是萬物聯網的時代,人們隨身都帶著各種各樣的可穿戴智慧裝置,包括智慧手機,這些裝置隨時隨刻都在向雲端傳送著你的個人資訊。在這種狀態下,隱私權所賴以為基礎的公共空間和私人空間之間的界限已經變得非常模糊了。

傳統的隱私權,其實包含四個維度。第一個維度是“獨處”,就是一個人在自己的私密空間裡待著的時候,享有免受干擾的權利。從“獨處”延伸到親密關係,在親密關係當中,人的隱私權也得到保障。此外,又延伸到秘密,那麼包括通訊秘密、通話秘密等,點對點之間的通訊內容也是受到保護的,這三個維度,總體上來講都是為了維護一個人的自治。

隱私權的這四個維度,在今天的物聯網時代,是缺乏空間支援的。比如,“獨處”時的個人資訊,其實已經沒有一個秘密空間來加以保障。

燕京書評:在諸多大資料技術中,人們更關注人臉識別,一方面是今年新冠疫情人臉識別的廣泛應用導致的,是否還有其他原因?

鄭戈:人臉識別是大資料時代會產生新問題的一個方面。同時,人臉識別和傳統的隱私權、人格權有非常直接的關係。早在我國的1986年《民法通則》裡面,人格權部分就提到了肖像權,這是人的非常傳統的權利,人臉識別中會涉及到肖像。人臉識別之所以很容易讓人們警覺,是因為它和傳統的人格權、隱私權可以掛上鉤的。

其他的大資料處理方式,其實大部分人根本就意識不到,比如說我們的GPS資訊,隨時隨刻都在上傳到雲端,供某個大資料掌控者進行分析,但這些是不會引起我們的注意的。只有當它產生了非常嚴重的後果時,我們才可能會意識到。

人臉識別和其他的比較不那麼容易被人們關注到的資料採集方式不太一樣。在大資料時代之前,肖像權就是受到保護的,我們的肖像被某個裝置給捕捉拍攝下來,普通人都可以感覺到對自己是有影響的。

燕京書評:這些問題該怎麼去面對?正在制訂中的《個人資訊保護法》能解決嗎?

鄭戈:《個人資訊保護法》對這個問題是會有專門處理的,因為人臉很明顯屬於個人資訊。

《個人資訊保護法(草案)》中,第4條對“個人資訊”的定義是,個人資訊是以電子或者其他方式記錄的與識別或可識別的自然人有關的各種資訊,不包括匿名化處理後的資訊。

人臉識別,顯然不是匿名化處理後的資訊。因為根據一個人的臉部特徵可以準確地定位到某一個特定的個人,所以它明顯屬於《個人資訊保護法》所保護的個人資訊。一旦被確定為個人資訊,它的採集和處理就要遵守一系列的法律原則,包括個人資訊的取得必須採用合法正當的方式,要有明確合理的目的,採集的資訊使用處理目的要被限縮到最小範圍;出於某種目的而採集的資訊,不能用於其他的目的。

《個人資訊保護法》一旦透過,那麼一個商業機構、住宅小區或政府部門,如果要採集人臉資訊使用,首先是必須以明確的方式來告訴被採集人臉資訊的人,不能再偷偷摸摸地裝一個人臉識別裝置。這個裝置必須是有明顯的標識,讓所有人都知道。

比如,它對政府利用個人資料,是有非常嚴格的限制的。如果是政府在十字路口公共場所安裝人臉識別裝置,那麼就必須符合特定的公共利益的目的,如防疫、安保等。商業機構要採集人臉資訊,就必須有一種合同關係,每一個合同關係都是出於一個非常特定的目的,明確徵得被採集者的同意,不能轉作其他目的,更不能把它所採集的人臉資訊再轉讓或者出售給別的商業機構。諸如此類的法律原則,在《個人資訊保護法》裡是有相對比較完備的規定的。

燕京書評:疫情期間,幾乎完成了一次全民資訊收集。

鄭戈:出於特定目的而蒐集的資料,只能服務於特定目的,而且它的儲存應該是有一定的期限的。防疫期間,因為它是出於一個非常重大的公共利益目的,那麼蒐集個人資料應該是被允許的;疫情過後,在疫情期間所採集的個人資料,如果被轉作其他用途,特別是和公共利益無關的商業用途的話,應該是法律所明確禁止。

燕京書評:疫情期間對人臉識別技術的使用,是否促成了《個人資訊保護法》的制訂?

鄭戈:《個人資訊保護法》開始制訂到現在已經有很多年了,它和疫情沒有直接的關係。人臉識別只是個人資訊的一種。但是,人臉識別的問題出來以後,現在的徵求意見稿裡面,有一些專門針對人臉識別問題的。

比如說第27條,非常明確地說,在公共場所安裝包括人臉識別在內的影象採集的裝置,只能是出於公共安全目的,明確地限縮了公共利益的範疇,界定得更加清楚。因為很多東西都可以被稱為公共利益。這是非常明顯地針對人臉識別問題而確立的一個規則。

燕京書評:人臉識別相關立法會不會比較有難度,比如技術發展很快,一些細化之處無法預測和明確規定?

鄭戈:因為法律它必須具有一般性,所有法律都是抽象的,都是一般性的。不僅是在人臉識別這方面有這個特點。但我覺得,在這一草案中,人臉識別的相關規定已經足夠具體,可以實施了,我不覺得它有執行上面的難度。因為一旦明晰了,問題就很容易解決了。

人工智慧能夠形成整套知識去操縱人類行為

燕京書評:人臉識別是人工智慧時代的產物,人工智慧對個人權利可能造成侵蝕的,還有哪些方面?

鄭戈:人工智慧,核心技術就是機器學習。機器學習的機制是從海量的資料當中去尋找規律,其實是一種統計學原理,只不過我們過去的統計學需要去找樣本。傳統時代的統計樣本、我們的算力、取得資料的能力都是很有限的。

人工智慧技術存在將近70年了,1956年的達特茅斯會議就提出了Artificial Intelligence這個詞。之所以在最近幾年忽然成了全民關注的一個話題,而且取得了非常突破性的進展,主要原因就是我們進入了一個萬物聯網的時代。物聯網時代產生的資料,遠遠超過我們之前時代所產生的資料總和。現在,人類媒體每時每刻都在產生著海量資料,這些資料用我們傳統的人力方式是難以處理的。

這些資料,如果不借助機器學習的演算法,其實是沒有什麼利用價值的。但是,恰恰是這些海量的資料,它為機器學習的演算法提供了非常豐富的資源,計算機可以從這些海量的資料當中去尋找到規律。比如說每一次到百度上去搜索一個關鍵詞,甚至每一次滑鼠的點選,都會留下電子痕跡。資料本身是原始素材,表達出的某種資訊其實都是關於人類行為的。

機器學習演算法,使這些資料變成資訊,再變成可以被人類所利用的知識。現在大多數平臺企業,都是利用資料來獲得關於人類行為的知識,從而實現各種各樣的商業目的,比如說量身定製地投放廣告。在美劇《西部世界》中,有一句很有趣的話:“我們給機器編碼是為了解碼人類。”人工智慧,本來是人類編碼而形成的一種演算法,目的是解碼人類的行為。然後,就可以幹各種各樣的事情:可以預測、修正甚至提前介入人類行為。

也就是說,在意圖階段,甚至連意圖都沒有形成的時候,透過大資料分析已經掌握了資訊。比如,一個具體的消費者,有什麼樣的消費傾向、興趣愛好是什麼,由此投放誘導性資訊,使你產生某些方面的購物需求。換句話說,需求很多時候是被誘匯出來的。

所以,機器學習可以形成一整套的如何去操縱人類行為的知識。

現在的智慧演算法技術方面最強的是一些企業,從百度、阿里到 Google、Facebook。因為他們掌握著最大量的資料,主要是用於商業目的。但是,它也可以用到其他方面。比如,大家都知道,在2016年的美國總統大選中, Facebook洩露8700萬用戶的資訊給劍橋分析,劍橋分析量身定製地來投放競選廣告,最後影響了美國總統大選的結果,徹底地改變了我們整個世界的運轉方式。

在我看來,這是最深層次的問題。現在有很多的人文社會科學領域的學者,在討論人工智慧的時候,沒有深入到目前人工智慧技術應用的主要現實層面,即平臺企業背後的演算法,而有很多科幻式想象,比如,“人工智慧具有了自我意識之後如何奴役人類”這類話題。其實,這並不是我們現在主要應該擔心的。即使這種情況可能存在,也是在遙遠的未來。目前來看,人工智慧實際已經透過我剛才所講的方式,深入到我們生活的方面。

燕京書評:個體出於對於自身權利的保護,該如何抵抗這種機器演算法、商業世界的侵蝕?

鄭戈:實際上,整個商業邏輯就是要利用人的弱點;而人工智慧就是大資料掌控者,利用人的弱點的能力得到幾何倍數的增長。但是,人類抗拒這種操縱的能力卻越來越弱化。

剛才我們講到,要發展人工智慧技術首先要有海量的資料,個人是不可能獲得這種海量的資料的,只有像阿里、亞馬遜這樣的大型平臺才可能獲得。所以,個人相對於平臺企業來講,抗拒操縱的能力,其實是嚴重弱化,甚至可以說是蕩然無存的。

而人文、社會科學以及哲學、法學領域的很多學者,比較強調人的自治,認為我們每個人都是獨立的。在我們法學領域,企業也是被視為法人的,我們想象自然人和法人是平等的,可以平等、自由地簽訂契約,完成各種各樣的交易。其實,這是一種非常理想化的狀態。實際上,個人和大型平臺企業之間,談不上平等。這是一個深層次的問題。但是,這個問題其實沒有解決方案。

燕京書評:商業邏輯和人工智慧利用個體的弱點,個體的生活卻依賴它們,抗拒能力越來越弱。長此以往,人就會變傻變笨。

鄭戈:實際上,已經變傻變笨了。

演算法之下,“個體的尊嚴”是什麼?

燕京書評:在這樣的環境下,如何定義“個體的尊嚴”?

鄭戈:我們現在都非常地迷信科學,實際上現在的科學也是在消解人的人格。

在憲法學裡,有一個非常核心的概念,就是“人的尊嚴”。這個概念主要來自於康德的“人是目的,不是手段”。這個理論聽起來是很美好的,但我們現在所處的世界,從人工智慧到生物科學到腦科學,所有這些自然科學現在給我們造成的圖景,其實就是人的人格基礎是什麼都已經很不確定。

人工智慧讓機器具有學習能力,使機器變得越來越像人。與之相反,腦科學描述的圖景是人越來越像機器。這兩方面,其實目前是合流的。比如說現在主流的腦科學家,會認為人腦是由1000億個神經元所構成的,而神經元之間的連線方式決定了我們的所思所想。除了神經元之間的物理通訊機制(放電)和化學通訊機制(分泌遞質)以外,腦科學家認為我們找不到任何自我意識或靈魂存在的依據。既然這樣,人類思考的過程最終可以用算力越來越強大的計算機來模擬和取代,就不再是天方夜譚了,而是技術發展的必然結果。

任教於普林斯頓大學的韓國裔科學家承現峻,在他的著作《連線組》(Connectome)中就寫道:“據我所知,沒有任何客觀的科學證據來證明靈魂的存在。人們為什麼相信靈魂的存在?我懷疑宗教是唯一的原因。”他很明確地說,你的身體和大腦與人造的機器並沒有本質的區別。

由此來看,生物科學和計算機背後的認識論基礎是一樣的,也就是說,人就是機器,更準確地說,人就是程式碼或者演算法,那麼他們一方面會使用機器和演算法來取代人腦,另外一方面也會藉助演算法來影響和控制人類的行為。所以,我們目前所面對的一個總體的技術圖景,會變成商業模式,變成我們所處的整個外部環境當中非常基礎性的組成部分。

《連線組:造就獨一無二的你》,[美]承現峻著,孫天齊譯,清華大學出版社2015年12月版

燕京書評:看來,“人的尊嚴”這一最基本的概念現在也有點面目不清了。那麼,你個人有沒有擔心過自己被奴役?

鄭戈:從個人角度來講,我前面是描述了一種比較悲觀的前景,但實際上也不是那麼悲觀。因為現在這些問題,其實在現代性的早期就已經暴露出來了。

現代政治思想的奠基人霍布斯,非常系統地打造了人類無中生有的創造和管理世界的理論。法律和工程技術,都是這種創世工作的工具。霍布斯曾經非常明確地寫道:“舊道德哲學家所說的那種極終的目的和最高的善根本不存在。慾望終止的人,和感覺與映象停頓的人同樣無法生活下去。”他認為,“幸福就是慾望從一個目標到另一個目標不斷地發展,達到前一個目標不過是為後一個目標鋪平道路。所以如此的原因在於,人類慾望的目的,不是在一頃間享受一次就完了,而是要永遠確保達到未來慾望的道路。”

霍布斯的理論很有趣,他認為人類沒有終極的價值,沒有終極的追求,只不過是滿足一個又一個的慾望。其實,在霍布斯那裡,價值理性就已經完全被顛覆了,用今天的話來說,其實就是消費主義。技術使消費主義得到不斷的膨脹。人類是有肉身的,那麼人類的所有慾望都是使自己的沉重的肉身變得更舒服,滿足各種各樣的欲求。人類的基本慾望其實一直都沒有改變,從石器時代到現在沒有太大的變化,只是人類滿足自己慾望的手段日新月異了。在我看來,這是一個基本哲學層面的命題。

《利維坦》,[英]霍布斯著,黎思復、黎廷弼譯,楊昌裕校,商務印書館2017年3月版

燕京書評:那麼在你看來,科技能夠做到中立嗎?

鄭戈:當我們說“科技”時,往往也混淆了科學和技術。

科學的主要的目的,是瞭解這個世界的真相,它關心事實。所以,科學在很大程度上是中立的。因為它只關心事實。但是,技術不一樣,技術是利用科學的原理來實現特定的人類目的的手段。所以,技術從來都不是中立的。你給它什麼樣的目的,它都能找到更好的達到目的的手段。一旦目的是邪惡的,技術越先進,能夠做的壞事就越多。

燕京書評:在這種情況下,如果我們否認了人的價值屬性,那麼人的尊嚴是什麼呢?

鄭戈:其實,現在在法律領域所謂的“人的尊嚴”也非常的技術化,它不是說人本身有什麼不同於萬物的根本價值,它其實還是說要保護人的身體,人首先有身體的人身自由,不能無緣無故去剝奪一個人的人身自由。圍繞著“人的人身”為基礎,是一個的同心圓。

這就聯絡到開始講的隱私問題,人的身體、在私密空間當中的自由、親密關係以及秘密,都是受到保護的。萬物聯網時代,突破了基於空間想象的法律概念,而我們還沒有發展出新的法律概念和原則,甚至我們在目前的時代需要保護什麼,也不是特別清楚。

從法律的角度來講,歐盟的《通用資料保護條例》對我國的《個人資訊保護法》有很大影響。這一條例的核心觀念,其實還是想把傳統的個人對關於自己資訊的自主控制權,延用到大資料時代。歐盟的體系,最早的基礎的是德國憲法法院在1980年代的一個判決當中提出的“個人資訊自主權”的概念。這個概念是指,每個人都應該有權利控制關於自己的資訊的流向,被什麼人所利用。但是,這其實是一個很天真的想象,基本上是把這個資訊想象成傳統時代的通訊,比如,我寫了一封信,這個信要寄給誰;在寄信的過程當中,信的內容不能被第三者知道。

鄭戈:刪除權,又稱為“被遺忘權”,指資料主體可以要求資料平臺刪除關於自己的某個資訊。實際上,網際網路不會遺忘。只要一則資訊出現過在網際網路上,它就會在某個伺服器上,就很難刪除。刪除權,更準確地說,是去索引化的權利,它主要是針對搜尋引擎而提的一種訴求。比如,可以要求Google、百度把一則個人資訊去索引化,搜不到了,但要求這則資訊在整個的網路空間消失,在技術上是做不到的。

刪除權,也在目前的我國《個人資訊保護法》的討論裡面,很有可能被納入。歐盟《通用資料保護條例》對個人資料權做了細分,包括個人資料的可攜帶權,也就是說一個人可以把自己的完整的資訊從一個平臺轉移到另外一個平臺,平臺的企業是不能做任何限制的。在歐洲某些國家,一個人在遺囑當中,可以要求死後資料權,對生前留下的資料做某種處理,非常詳盡。比如說自己的 Facebook賬號、推特賬號,甚至自己的遊戲賬號,在自己去世之後如何處理,也會成為遺囑的非常重要的方面。這一系列的權利,也很有可能會進入我國的立法當中。

但是,這並不意味著規定的權利越多越好,因為也要考慮為本國資料企業的發展留下足夠的空間。

在資料隱私面前,如何平衡個體權利與公共利益?

燕京書評:個人在今天這個時代到底是隨波逐流,還是可以做點什麼?比如,你可能想過該怎麼抵抗這些,或者跟著這個趨勢發展下去?

鄭戈:我們都非常強調所謂的自由,但自由從來都是需要人付出艱辛的努力才能夠獲得和保有的。比如,上世紀九十年代末和本世紀初,在計算機科學的領域有一個非常著名的理論“創生性的計算機(the generative computer)”,當時的計算機科學專家還有一些研究計算機相關法律問題的法學家,都認為計算機是一種解放性的技術,網路也是,每個人都可以去定義和設計自己的交往空間。

當時的技術人員設想的理想計算機完全是開源的,每個人都可以去自由地編碼,定義自己的計算機可以做什麼。同時,網際網路也是有一系列的開原始碼和軟體所組成的,所有的人都可以參與打造自己心目當中比較理想的網際網路。如果這種理想實現了,當然我們對關於自己的資訊的控制權就得到了極大的強化。

但設想一下,我們願意用這樣的計算機嗎?它需要你自己去編碼,自己去設計。恐怕沒有人願意用這樣的計算機。果不其然,這種創生性的計算機和網路很快就淡出了歷史舞臺,實際上從來都沒有流行過,它只是一小部分的技術專家和和人文社會科學學者提出來的一個概念而已。

後來佔據主流的計算機是什麼樣子的?蘋果。當蘋果推出iPhone,是一種革命性的技術。之前是一個只能打電話的手機,蘋果使你隨時隨刻都可以上網,是一個可隨身攜帶的小電腦。蘋果的設計理念是什麼?顯示決定一切,一個蘋果使用者不需要懂任何技術,只要看得懂顯示屏就可以。

蘋果就是一個完全封閉式的盒子,排除了個人所有的創造力因素。想在蘋果上面做手腳,想要改變它的程式,想要去下載不是apple store裡面原本就有的軟體,是非常困難的。蘋果是典型化的大眾消費時代的理想手機,不需要個人使用者去付出任何努力,就把一個非常便於使用的產品交到你手裡。它假設所有的使用者都是傻瓜,只要拿到一個 iPhone,再傻的人也會用,這才是目前時代的產品的主流。

這個例子其實就充分說明,我們每個人都嚷嚷著想要自由,但當真正要給你自由的時候,沒有人願意接受。所以,這就是一個辯證法了。

在今天這個時代,如果我們想要擁有自由,其實也是可以擁有的,但對個人的要求就會比較高。當技術帶來很多便利時,很多人又會說技術濫用了我們的資料,這個就是有些“無厘頭”的說法了。這個時候,如果你懂得加密技術,你能夠擁有的個人隱私就會更多一些。否則,實際上絕大多數人都是每天在自願交出海量的資訊,回過頭來又去抱怨自己的隱私權被侵犯了。

燕京書評:關於自願和抱怨,其實如果現在沒有這樣的一種侵犯隱私的集體行為的話,就不用去“自願”,也沒什麼好抱怨。人們使用技術的生活和日常行為有慣性,以便利為主,比如基本沒人會在進小區時,因為不想被採集個人資訊而當場重新做一個技術研究。作為普通的世界公民,可能一方面想擁有便利,另一方面也想擁有個人的權利。可以有這樣的要求嗎?

鄭戈:當然是可以有要求的,但這種要求是要求一種最低限度的保護。比如說,我前面提到的《個人資訊保護法》,它其實就是提供了一種最低限度的保護,主要是約束個人資訊的取得者。如果是政府的話,就必須是出於公共利益目的。如果是私營企業的要盈利的話,就必須以合同的方式來徵得資料主體的同意。這些最基礎的法律保護是可以做到的。

現在的時代,是遍佈式計算的時代,雖然各種感測器採集資料並利用,但它同時也給我們帶來很多便利。這一點是需要承認的,雖然現代性的反思者對此往往都會比較批判。

在傳統社會,雖然表面上看每個人都更加獨立,隱私也比現在多得多,但沒有人願意回到那樣一個時代。因為現代性的這套技術商業模式、社會組織方式,是使越來越多的人物質生活得到了更大的改善。而在傳統時代,人的物質生活之間的差距是非常大的,生產力水平比較低,只能滿足極少數人過非常優越的生活,大多數人都處在貧困的狀態中;而現代化社會的一系列技術,解決了絕大多數人的溫飽問題。

燕京書評:對於個人資料的保護和使用,界限在哪裡?

鄭戈:剛才聊到了把個人資料權作為隱私權,進而作為人格權的一部分。與此同時,我們常常忽視資料權的另外一個方面,即“資料的物權”。

國務院今年專門頒佈了一個檔案,把資料作為當下經濟形態的要素,和土地勞動資本一樣。這種資料的經濟維度,就涉及到“資料的物權”的面向。也就是說,資料權也是一種財產權,但資料作為財產權,和個人的關係又不是太大,因為零零星星的個人資料其實沒有多少財產價值的,它必須被一個平臺企業彙總起來變成大資料才可以供機器學習,才能夠去進行行為模式的分析,才能夠產生商業價值。

目前我國的立法,包括個人資訊保護法、資料安全法等法律裡面,都有一個規則:一旦對個人資料做了匿名化的處理,用資料產業的術語來說就是資料清洗,去除了其中的可以定位到某個具體個人的資訊,比如身份證號碼、個人面部資訊等個人敏感資訊之後,它就不再屬於個人資訊保護的範圍了。它就變成了某種財產權,一般來說,這種財產權屬於大資料的採集者和處理者,是屬於平臺企業的。

燕京書評:今年新冠疫情期間,有一個常常浮出水面問題是,個人隱私權與集體公共利益發生衝突時,該如何平衡?

鄭戈:法律領域有一個非常重要的分析方法,叫比例原則。“比例原則”是一個非常面對現實的一種法律思維方式。它會承認,在任何問題上都會涉及到不同的權利和利益。比如,在隱私權問題上,會涉及到個人隱私和有公共利益之間的權衡。比如,在疫情防控方面,如果一個人非常強調自己的隱私,不願意被採集自己的健康資料、活動區域資料,那麼法律如果過分地保護個人權利,就會導致像健康碼這樣的技術手段沒法得到應用。比如,一個人的言論自由,可能會侵犯別人的名譽權。所以,在每一個具體的問題上,都需要權衡不同的利益和權利。

疫情這個例子,涉及到公共利益和個人權利之間的平衡問題,涉及到一個比較典型的法律思維方式,就是避免走極端,把握好分寸。如果缺乏這樣的思維,就會鑽到牛角尖裡面。隱私權的極端主義者就會認為所有侵犯個人隱私的,都是應該被摧毀的,都不應該存在;反過來講,資料技術的信仰者,又會認為隱私在技術創新面前是一文不值的。這兩種極端,其實都應該被避免。

所以,當下的時代,法治還是有它的作用的。因為法治可以幫助我們用比較體系化的、服從於規則的方法,進行各種利益之間的權衡取捨。

燕京書評:你剛提到,歐盟的《通用資料保護條例》(GDPR)對我國的《個人資訊保護法》有很大影響。歐洲模式和美國模式的法律體系,對個人資訊的保護的區別主要呈現在哪些方面?

舉一個很簡單的例子,如果一個Google的使用者認為自己的資料權或者隱私權被 Google侵犯了,要去告Google,他要透過訴訟,訴訟的成本是非常高的;而Google有一個最精英的律師團隊來辯護,一個普通使用者能夠告贏這些巨頭資料企業的可能性是非常低的。所以,美國的法律結構,其實是偏向於大資料企業。

歐洲是另外一種模式。除了歐盟層面的GDPR以外,法國、德國以及很多西歐國家都專門制定了個人資料保護方面的法律,它是符合公共利益的。政府會專門設立某種行政機構來保護個人的資料權。比如,設立個人資料保護局這樣的機構。如果有一個數據主體認為自己的個人資料被濫用了,不用走訴訟的程式,只要到行政機關去告狀就行了。行政機關會啟動一個調查程式,一經核實,就會處以鉅額罰款。這一點,我們在新聞中經常看到,美國的Google、Facebook動不動就在歐洲被處以上億美元的罰款,這就是“歐洲模式”。

我國目前的立法趨勢,其實借鑑了對個人資料保護更強的“歐洲模式”。比如剛剛提到的《個人資訊保護法(草案)》中對“個人資訊”的定義擴充套件得很大,包括已被識別的和可被識別的。在這點上,至少在《個人資訊保護法》出臺之後,其實是不弱於美國的;話又說回來,在執法層面,我國還是會給技術創新留下足夠的空間,因為這次的資訊科技革命被認為是“第四次工業革命”,它的背景是國際競爭。

在這方面,歐盟之所以對個人資料保護那麼嚴格,主要是因為沒有多少大型的資料企業,在這方面本身就落後了。所以,歐洲為立法做準備的報告中,經常提到一個概念:數字殖民主義(Digital Colonialism)。在“數字殖民主義”這一概念中,認為歐洲目前正在變成中美數字巨頭的殖民地。這點是很搞笑的,因為我們知道,第一次工業革命是在英國開始的,西歐國家完成工業革命以後就開始到世界各地去搞殖民,但現在歐洲擔心的是自己成為這一輪的資訊科技革命之後的中美數字巨頭殖民地,所以他們會採取一種非常保護性的立法模式。

資料是這個時代的石油。只要是搞相關的企業,海量地利用個人資料就會成為一種常態。所以,在這一輪的資訊科技革命當中,一個國家的地位和處境,如果本身有這方面競爭的優勢和可能性,就會相對鼓勵技術創新,弱化對個人資料的保護。所以,每個國家的產業結構、在國際競爭當中的地位這些因素,反而決定著世界各國資料立法模式。

25
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 要產量不要質量?特斯拉:文章不實,造謠抹黑