回覆列表
-
1 # 矽釋出
-
2 # 任尚斌紀實影像
這個問題我個人覺得問的很深刻。它既面臨著科技的挑戰,又面臨著法律進一步界定等諸多問題。人工智慧是個新鮮深刻的發展話題,它一方面帶給人類進步文明,另一面卻將使個人的隱私和自由變得非常脆弱。在一定程度下,人在科技面前變成了一絲不掛的透明體。舉個再簡單不過的例子,你百度一下自己的資訊,瞬間會彈出許許多多的關於你目前的工作、學習、家庭、學術、業績、照片等等。當你看到這些你自己都會驚訝的大驚失色,你會說我沒有授權別人要這麼做。在你明白了這是人工智慧帶來的便利便捷的同時,我該如何的去面對。基於深度學習的人工智慧需要收集、分析和使用大量資料,這其中有很多資訊由於具有身份識別性,屬於個人資訊。基於目前,我只能提醒大家按照個人資訊保護方面的法律規定,這些行為應當取得使用者明確、充分且完備的授權,並應當明確告知使用者收集資訊的目的、方式手段、內容、留存時限還有使用的範圍等。但是現在,這種個人授權已經非常脆弱。比如,人臉識別。相比指紋等其他生物特徵資料,人臉的一個巨大區別就是它們能夠遠距離起作用。只要有手機就可以拍下照片,供人臉識別程式使用。這意味著我們的隱私可能遭受更大損害。
我們如何讓AI在不影響創新的情況下對其決策負責?
從定義“解釋”開始。當我們談論一個決策的解釋時,我們通常是指這個特定結果的理由或理由,而不是一般的決策過程的描述。
區別很重要。有可能解釋AI系統如何做出決定,同樣可以解釋重力如何工作或如何烘烤蛋糕。這是透過佈置系統遵循的規則來完成的,而不涉及任何特定的掉落物體或蛋糕。
這就是企業家們為了保護他們的商業優勢而保密他們的AI系統的秘密的恐懼。
但在許多情況下,這種透明度並非必要。例如,解釋工業事故中物體墜落的原因通常不需要對重力進行解釋。相反,解釋通常需要回答這樣的問題:決定中的主要因素是什麼?改變某個因素是否改變了這個決定?為什麼兩個類似的案例會導致不同的決定?
基本上,當利益超過成本時。有三種情況表徵了社會認為決策者在道義,社會或法律上有義務提供解釋的情況。決策必須對決策者以外的人產生影響。決定是否是錯誤的必須有價值。並且必須有一些理由相信在決策過程中發生了錯誤(或將發生錯誤)。在要求解釋之前,必須有充分的理由認為決定不合適。但是也可以有其他的理由來解釋,比如試圖增加對消費者的信任。
對AI系統來說,合法可行的解釋是可能的。這是因為決定的解釋可以與其內部工作的描述分開進行。更重要的是,解釋系統應該與AI系統截然不同。
只有這樣,如果AI系統觸犯法律,我們才能去深究為什麼,也才能做出判斷和判決。