-
1 # 風機族
-
2 # 玩轉資料分析
用人工智慧來審判,是一個很危險的想法。
人工智慧已經可以確定在未來是非常有用的一項技術,但是,用AI在法庭上審判來一個人有罪或無罪,真的就是好事嗎?
令人擔憂的是,似乎這可能已經在發生了。
2017年4月11日,美國首席大法官羅伯茨在與紐約倫斯勒理工學院校長的一場對話中被後者問道,“你能否預見將來有一天,AI驅動的智慧機器將協助法庭認定事實,甚至頗具有爭議地介入司法裁決程式?”
“這一天其實已經到來,” 大法官羅伯茨說,“而且這已經讓司法實務的運作方式面臨著巨大的壓力。”
這位大法官對AI保持著開放的態度,而且越來越多的法院也在擁抱技術的進步,目前,美國各地的法庭和懲戒部門都使用演算法來確定被告的“風險程度”:從這個人會犯另一種罪行的可能性,到被告會如期出庭的可能性等各個因素。這些演算法為法庭在做出保釋、判刑和假釋等方面的決定時提供資料依據。這套系統叫COMPAS風險評估系統,COMPAS是Northpointe公司設計的一款風險需求評估工具,COMPAS風險評估依據的資訊從被告的犯罪檔案和與被告的訪談中採集。
從影印機到DNA指紋識別和複雜的監控技術,技術確實為法庭帶來了許多好處。但這並不意味著任何技術都是完善的。
演算法也可以是種族主義的,AI也會表現出各種偏見和歧視,這些偏見涉及種族、性別、年齡等。
在調查和判刑期間,使用人工智慧可能有助於節省時間和金錢,但這也會帶來一些棘手的問題。來自ProPublica的Compas報告明確地指出,佛羅里達州的黑人被告人比白人被告人被錯誤地判斷為“有罪”的機率更高。
即使是最精密的情報系統,也會多少帶上點創造它們的人的種族和性別偏見。人類的偏見會作為資料被人工智慧“習得”。
2016年,包括英偉達、受微軟支援的青年實驗室(Youth Laboratories)在內的數家機構共同舉辦了第一屆國際人工智慧選美大賽(International Beauty Contest Judged by Artificial Intelligence)。全球範圍內的使用者只需在相關APP上傳自己的自拍照,機器人裁判就會根據面部對稱性、皺紋等因素選出最美的獲勝組。令人尷尬的是,在來自100多個國家的近6000張自拍中,機器人裁判挑選出來的44個最美的獲勝者幾乎全是白人,有一小部分亞洲人,只有一個擁有深色面板。
在使用AI來審判之前,我們必須確保有一個評判的標準,並設立監管機制。要確定它可以用在哪種型別的案件,用它的目的是什麼,AI的主動決策過程是什麼,誰來監督AI的審判,人類又如何去服從一個機器的判決。
在這些問題能夠解決之前,我們絕不能任由未受控制的演算法盲目地將刑事司法系統推向懸崖。
嗯,待所有問題都解決了,我們再考慮讓AI審判人類吧。
-
3 # 黃金時代當家
一、全國正在推行標準化案例審判程式,智慧化審判可有效遏制人為的司法腐敗枉法裁判,導致同類案情產生不同裁判結果,結論互相對立現象。
二、透過人工智慧檢索,迅速把案件存在的疑難要點找出來,責令補充偵查。
三、隨著社會發展進步,人類社會不斷髮生新事物,不斷出現新案由→新案例,人工智慧永遠也無法取代人類編寫程式的作用。
四、智慧化辯護,有利於打擊黑律師當虛假訴訟掮客,與法官裡應外合用假裁判詐騙財物的刑事犯罪。
-
4 # 嚴冬or雪
AI讓人類社會全面徹底數字化透明化律師法官將成為無關緊要的存在☯如果人今天開始被監獄關個十年二十年的就當進了養老院不用活著出來了出來也是個行屍走肉
-
5 # 乾坤52
很難,因為客觀或者不客觀,公平還是不公平,辯論能力高還是低的評判標準本來就是因人而異的。相信每一個打官司的人都有覺得自己能夠勝訴的理由吧?當你的理由被認為站不住腳,沒法勝訴的時候,你會覺得公平嗎?你會覺得客觀嗎?開玩笑,人類本來就不是那麼理智的生物,指望絕對的公平客觀本來就是不可能的事,哪怕是機器做出了的判斷也不會改變人類本身的認知。那隻不過由人類的不足變成了機器的不足罷了。
要是用未來的強Al去當律師、法官、陪審員等那麼以強Al的辯護實力、審判速度、客觀公正性、能否超越人類優秀團隊?(也可以想象Al律師直接與人類律師做比拼或對抗)為什麼?歡迎回答和參與~
回覆列表
AI如果當律師和法官能把人類虐成渣,AI是基於電腦資訊資料的集合體,人的行為舉止言談都會被無處不在的攝像頭電話記錄下來,作為對手的人類,在AI面前就是個透明體,無法隱瞞詭辯,它會利用你的弱點和錯誤,把你剝的一絲不掛,你不能有一點失誤和謊言,否則真相就原封不動的出現在大眾面前,這是完全的資訊不對稱,人類不是AI的對手,就在不久的將來。