回覆列表
  • 1 # 金犁解答

    Al時代一切資料是公開的,物聯網也是開放的,所以稱為透明時代,也就是對於方每個人來說,根本無密可保,無隱私可守。

    但是合法的隱私,國家政府,Al研發人員,相關採集,存貯,調取,查詢個人隱私資料的部門,單位,自然人,一定要取得個人同意,經公安級關批誰才能呼叫,或查詢。

    政府要制定相關的(個人隱私保護法),整合個人隱私的伺服器1及調用出口,收集埠,一定用Al來採集,保管,分發,並跟蹤資訊的流向,派發,監督。

    建立,制定,頒佈(社會徵信法)嚴格制約,資訊買賣,打擊資訊販賣,洩露。嚴懲利用個人隱私來威脅,詐諞他人。

    利用Al的認真負責,層層把關,打勝A|時代個人合法資訊保衛戰。

  • 2 # 永惠家庭農場

    人工智慧時代,該如何保護隱私權?這是每一個人都很關心的問題。

    然而,作為單個個體(個人或單位),尤其是不懂AI技術的廣大老百姓。他們,根本沒有從技術角度保護自己的資訊、隱私或者這方面的權利!怎麼辦?

    那就要求從事AI(或者其它與網路資訊有關的行業)應用的企業、其它組織或個人,必須有足夠高的職業素養。那就是,尊重他人的資訊保安不受侵犯的權利。一個很典型的例子,就是,最近,網際網路上流行一種說法,就是某某網際網路大平臺透過AI智慧和大資料等技術,非法獲取客戶資訊,用於謀取不正當利益!典型的沒有職業操守!

    但是,話又說回來了“五個手指還不一樣齊呢”!是的,人無盡善,事無盡美!我們不可能要求每個人都那麼完美。事實上,也做不到。起碼,現在這個社會是這樣的。那麼,我能就接受這樣的現實,而無動於衷了嗎?

    當然不是。我們不止是思想上不能無動於衷,而且,還要積極行動起來,與那些侵害他人個人隱私和資訊保安的違法犯罪行為做堅決鬥爭!

    首先,作為AI科技的使用和受益者,我們要時刻保護個人隱私和資訊保安不受侵犯!發現類似違法犯罪行為,要積極進行堅決的鬥爭!這是從我們個人角度,盡力維護全社會共同保護資訊保安和個人隱私的和諧環境。

    其次,也是最重要的,就是從國家和社會層面講。國家主管部門,要有高層設計(包括法律、規定和技術等),來保護國家和個人資訊保安不受侵犯!在這方面,有相關的法律,但是還不夠全面和完善,不夠仔細到AI、到大資料網路。還要繼續完善,要繼續努力!

    光從法律上懲戒是不夠的,因為法律法規是事後措施,有滯後性。我們不想受到傷害,怎麼辦?

    那就要從源頭預防。防範於未然!這就要制度設計者和技術設計者來高屋建瓴!將AI等科技的應用,規範化,並且加強監管,達到揚其利,去其弊的目的。就是給這些技術(應該是企業或其它技術應用方)加上緊箍咒,讓它們乖乖聽話,不敢鬧事!或者,教化他們就不會亂來(當然,這方面很難,應該只是想想)。不是一點可能沒有,只是不容易。

    不過,好的,完美的絕對是來之不易的!

  • 3 # 蘇寧金融研究院

    我們處在一個智慧變革的時代,人工智慧技術正在“賦能”各行各業。大資料就像新能源,AI演算法就像發動機,裝載了大資料和人工智慧技術的企業就像搭上了一班通往未來的快速列車,把競爭對手遠遠地甩在後面。

    隱私

    然而,這樣的快速發展不是沒有代價的。我們每個人的手機號、電子郵箱、家庭地址和公司地址經緯度座標、手機識別碼、消費記錄、APP使用記錄、上網瀏覽記錄、搜尋引擎結果的點選習慣、刷臉記錄、指紋、心跳等等這些資訊都是我們不願意輕易給出的隱私資料,但在AI時代,這很可能已經成為某個公司用來訓練AI演算法的資料集中的一條。

    正是眾多不起眼的一條條個人隱私資料,構成了足夠多的訓練集,讓AI從中學習到認知能力,讓從未跟我們謀面的AI演算法認識、瞭解我們,知道我們的喜好和動機,甚至還認識我們的家人、朋友。我們的隱私便是實現這些智慧的“代價”。

    當然,這個代價並不一定是你願意拱手付出的。

    那如何保護隱私?我不用行嗎?

    你以為關閉手機GPS就無法定位你的位置?你的手機還有陀螺儀、內建羅盤、氣壓計等裝置,還是可以用來定位你的位置。只要使用手機,就不存在絕對的隱私保護。

    對於很多手機應用來說,要麼不用,用了就很難避免洩露隱私,比如很多APP必須用手機號註冊,或者需要手機驗證才能繼續使用,還有的需要刷臉驗證等等。那麼,個人想保護隱私能做什麼?什麼也做不了,加上AI演算法的黑盒性質,我們甚至對於AI背後的邏輯和動機一無所知。

    監管

    隱私保護靠個人防護真的很難實現,需要強有力的法律法規來限制。

    2018年5月25日,歐盟的《通用資料保護條例》(GDPR)正式生效,這是在歐盟範圍內的一個數據保護監管框架,這是目前最完善、最嚴格的隱私保護規定。根據DLA Piper公佈的資料,在不到兩年的時間內,GDPR已產生1.14億歐元的罰款,其中開出的最大罰單是法國依據GDPR對谷歌罰款5000萬歐元,理由是谷歌在向用戶定向傳送廣告時缺乏透明度、資訊不足,且未獲得使用者有效許可。下圖是GDPR生效以來至2020年1月份歐盟各個國家罰款的金額分佈圖。

    對於企業,GDPR要求在收集使用者的個人資訊之前,必須以“簡潔、透明且易懂的形式,清晰和平白的語言”向用戶說明將收集使用者的哪些資訊、收集到的資訊將如何進行儲存、儲存的資訊將會被如何使用,並告知企業的聯絡方式。

    對於個人,GDPR賦予資料主體七項資料權利:知情權、訪問權、修正權、刪除權(被遺忘權)、限制處理權(反對權)、可攜帶權、拒絕權。目前GDPR在真實地影響到我們每個人的生活,最直觀的影響就是當你瀏覽網頁的時候,你會發現經常遇到網站彈出類似下圖的提示,這是網站基於資訊透明性的規定,向你徵詢資訊收集的許可。

    歐盟的GDPR具有全球影響力,它讓使用者對自己的個人資料有絕對的掌控權,讓全球在發展新技術的同時必須開始關注隱私問題,世界各國已經紛紛出臺自己的資料保護法規。

    關於隱私保護,一切才剛剛開始。

    歐盟在上個月正式啟動了稱為“打造歐洲數字未來”的新戰略,打算透過制定一系列針對AI、隱私和安全的法規,成為AI發展的全球領導者。該戰略的啟動也被看成是在應對美國和中國的AI崛起。

    可以預見,關於AI的隱私安全與監管將逐漸成為重點話題,實際上,就像歐盟委員會副主席Margrethe Vestager說的:“人工智慧本身並沒有好壞之分,而是完全取決於人們為什麼以及如何使用它。讓我們儘可能做到最好,控制人工智慧可能給我們的價值觀帶來的風險——不傷害,不歧視。”

    保護隱私已經成為AI發展不可繞過的“檻”,是AI技術的難題,也是AI良性發展的契機。

    趨勢

    可以說,保護隱私的各種法規的出臺必然是未來不可避免的趨勢,這勢必讓企業的資料收集、使用及流通的合規成本大幅增加,也容易讓企業內部或者企業間形成資料孤島問題,制約企業獲取資料價值。因此,保護隱私的AI技術的落地使用成為AI領域最亟待實現的目標。

    保護隱私的AI主要透過資料加密、分散式計算、邊緣計算、機器學習等多種技術的結合來保護資料安全,近期比較熱門的有Differential Privacy(差分隱私)、FederatedLearning(聯邦學習,也叫聯盟學習、聯合學習、共享學習)。

    保護隱私不是說完全不收集資料,而是要透過技術的手段防止個人隱私資料的洩露。差分隱私是一種數學技術,比如,假設要分析資料集並計算其統計資料(例如資料的平均值、方差、中位數、眾數等),如果透過檢視輸出,我們無法分辨原始資料集中是否包含了任何個體的資料,那麼這種演算法就被稱為差異私有。

    舉個非常簡單的例子,假設你的工作部門每個月都會用一個表格統計部門每個人的工資發放金額,除了製表人,別人無法檢視這個表格,只能透過一個查詢函式S知道這個表的總額,某個月你調去了別的部門,那麼別人就可以透過上個月表格A,和這個月表格B來知道你的工資,道理很簡單,只需用S(A)減去S(B)。B表格稱為A表格的相鄰資料集,它倆只相差一條資料,差分隱私技術就是要讓相鄰資料集的查詢結果差不多,從而無法推出個人的資訊來,這個差不多的程度可以看作隱私保護的力度。蘋果和Facebook已經使用這種方法來收集聚合資料,而不需要識別特定的使用者。MITTechnology Review將差分隱私技術列為2020全球十大突破性技術之一。

    聯邦學習採用了分散式機器學習方法,近年來越來越受歡迎,該技術假設使用者資料不會被儲存到中心化的伺服器,而是私有的、保密的,僅儲存在個人的邊緣裝置上,比如手機,因此與傳統機器學習方法相比,聯邦學習從根本上增強了使用者隱私。聯邦學習不依賴從使用者裝置端收集的資料來訓練,而是在使用者移動裝置端訓練AI模型,然後將訓練得到的引數資訊傳輸回一個全域性模型,這個過程不需要使用者資料離開個人裝置。

    從近兩年在arXiv(一個提交論文預印版的平臺)上提交的論文數可以看出,該技術發展的快速趨勢:

    四.巨頭的技術佈局

    從去年起全球最流行的兩個機器學習框架,TensorFlow和PyTorch都增加了聯邦學習等解決方案來保護隱私。

    (1)Google

    聯邦學習的概念最早是由Google在2017年首次引入,去年又釋出了TensorFlow Federated(TFF)框架,利用Tensorflow的機器學習框架簡化聯邦學習。

    如下圖所示,基於TFF框架搭建的學習模型在眾多手機(如手機A)上進行本地化模型訓練,更新權重並聚合(步驟B),進而更新提升後的全域性模型(模型C),將全域性模型再應用到各手機終端來提升演算法應用效果。

    2)Facebook

    為了在保護隱私的機器學習領域取得進展,去年Facebook旗下優秀的深度學習框架PyTorch與OpenMined宣佈開發一個聯合平臺的計劃,以加速隱私保護技術的研究。

    OpenMined是一個開源社群,專注於研究、開發和升級用於安全、保護隱私的AI工具。OpenMined釋出了PySyft,是第一個用於構建安全和隱私保護的開源聯邦學習框架。

    五 國內發展現狀

    國內的AI巨頭們也早已開啟保護隱私的技術佈局,特別是金融領域,金融領域由於監管嚴格,資料的隱私性要求極高,因此,金融機構一方面在保護隱私資料方面面臨技術難題,另一方面由於金融資料的孤立性,“資料孤島”問題導致金融機構無法發揮出資料的真正價值。

    國內多家金融機構以及金融科技公司已經嘗試在獲客、授信、風險控制等方面,利用聯邦學習解決資料隱私的合規問題和資料分享的資料孤島問題,最大化的發揮金融資料價值。

    目前國內關於保護隱私的監管還不夠成熟,個人和企業對於隱私保護的意識還不強。隨著全球環境中對保護隱私的關注逐漸加強,以及保護隱私的AI技術的發展,我相信AI技術終究會向著更好的方向發展,希望透過科學家們的努力,AI的黑盒不會是潘多拉之盒。

  • 中秋節和大豐收的關聯?
  • 進口海鮮在哪裡挑選最合適?