-
1 # 放歌聲野老梁
-
2 # 億州曦輝
區塊鏈也好,人工智慧也好,量子技術也好,本身都是技術,不存在偏見和歧視,最關鍵的還是人的因素。未來機器代替人工也已經是一個趨勢了,所以人應該明白未來自己的定位。
-
3 # 科技行者
如今,演算法中存在的偏見問題比大家所能想到的更為普遍。
比如:在2012年發表的一篇學術論文指出,來自Cognitec的人臉識別系統對非裔美華人的檢測效果比白種人要差5%至10%。另外,研究人員還在2011年的調查中發現,由中國、日本以及南韓開發的模型往往難以區分高加索人與東亞人。而在最近的另一項研究中,谷歌與亞馬遜推出的高人氣智慧揚聲器在服務非本地使用者時,結果顯示其理解非美國口音的能力要低出30%。而此前在2016年的一篇論文也提到,谷歌新聞文章中的嵌入詞往往對女性與男性表現出刻板的性別印象。
論文中描述瞭如何透過重新取樣確保人工智慧系統對資料自動“消除偏見”,從而使最終給出的觀點結果更為中立。他們表示,當在專門設計用於測試計算機視覺系統偏見的資料集上進行評估時,這套方案表現出了更優越的效能以及“更低的分類偏見”。
作為作者之一的Amini在一份宣告中解釋稱:“雖然大家普遍認為人臉識別已經是一項較為成熟的技術,但很明顯,即使是其中經常使用的資料集也並沒有得到適當的審查。對這些問題加以糾正尤其重要,因為我們已經開始看到這些演算法被應用於安全、執法以及其它眾多領域。”
事實上,這已經不是MIT SCAIL第一次就這個問題展開研究——在2018年的一篇論文中,David Sontag教授及其同事就提出了一種能夠減少AI偏見而又不致降低預測結果準確性的方法。但此次提出的新論文采用了一種新穎的、半監督式的端到端深度學習演算法。該演算法會同時學習需要完成的任務本身(例如人臉識別)以及訓練所用資料的潛在結構,透過對後者的學習,能夠幫助其及時發現訓練資料中隱藏或隱含的偏見,並在訓練期間自動消除這種偏見,而完全無需資料預處理或註釋。
實現方式
研究人員打造的這套AI系統的核心,其實是一套變分自動編碼器(簡稱VAE),能夠模擬人腦中神經元的數學函式層,其本質是一種神經網路,具體包括編碼器、解碼器以及損失函式。編碼器負責將原始輸入對映至特徵表示,而解碼器則將特徵表示作為輸入,以利用其完成預測並生成輸出結果。(損失函式則測量演算法對於給定資料的建模效果。)
在使用這套VAE方案的情況下(論文中將其稱為去偏見-VAE,簡稱DB-VAE),編碼器能夠在一定程度上學習特定資料點內潛在變數的真實分佈近似情況,而解碼器則立足潛在空間重建輸入內容。對解碼結果的重建使得系統能夠在訓練期間對潛在變數進行無監督學習。
為了驗證去偏見演算法在具有 “重大社會影響”的真實世界問題中的表現,研究人員們使用包含40萬幅影象的資料集訓練DB-VAE模型,並以八成對二成的比例將其劃分為訓練集與驗證集。在此之後,他們在PPB測試資料集上進行評估——這套資料集包含來自非洲與歐洲各國總計1270名男女議員的影象。
結果令人眼前一亮。根據研究人員的說法,DB-VAE不僅學會了識別面部特徵,例如感知到膚色與頭髮的存在,還學會了區分性別及年齡等其它特徵。立足個人人口統計(種族/性別)及PPB資料集,在對多種模型進行去偏見與未去偏見結果比較之後,DB-VAE顯示出更高的分類準確性並降低了由種族與性別引發的分類偏見——研究團隊認為,這是人工智慧朝著公平與公正發展方向邁出的重要一步。
在論文中,研究人員這樣寫道:“系統的開發與部署對於防止意外歧視並保證這些演算法的長期有效運作至關重要。我們希望自己提出的方法能夠成為一種真正的系統化工具,從而促進現代AI系統的演算法公平性。”
技術進展
過去十年以來,一系列失誤事件讓我們意識到人工智慧確實存在潛在偏見,這無疑令人沮喪萬分。然而,問題的出現也讓學術界在實現更準確、更客觀中立的系統開發方面取得了可喜的進展。
除了麻省理工學院此次研究結果之外,還有許多企業也在該領域不斷進行嘗試和努力。比如:
去年6月,微軟公司與人工智慧(簡稱AI)公平專家合作,修改並擴充套件了用於訓練的Face API資料集。這是一個微軟Azure API,提供用於檢測、識別並分析影象中人臉的演算法。透過新的膚色、性別與年齡資料,其能夠將深膚色男性與女性的識別錯誤率降低至原本的二十分之一,並將女性整體的識別錯誤率降低至原本的九分之一;去年5月,Facebook推出了Fairness Flow,它能夠自動警告某種演算法是否根據種族、性別或者年齡對某人做出了不公平的判斷;埃森哲方面則釋出了一款工具包,用於自動檢測AI演算法中的偏見,並幫助資料科學家緩解結果中的偏見;去年9月,谷歌公司出推出了其What-If工具,這是面向其TensorFlow機器學習框架的TensorBoard網路儀表板中的一項偏見檢測功能;IBM公司則於去年秋季拿出了自己的Ai Fairness 360,這是一款基於雲端的全自動化套件,能夠幫助使用者瞭解AI系統如何制定決策並提供調整建議——例如演算法調節或者資料平衡,從而緩解偏見的影響。最近,IBM沃森與Cloud Platforms小組的研究重點也開始轉向減輕AI模型中的偏見問題,特別是與人臉識別相關的偏見。如果一切順利,那麼上述舉措——以及像麻省理工學院CSAIL新演算法這樣的開創性工作,將有望給人工智慧的偏見問題帶來喜人的整體性改善。
-
4 # cnBeta
谷歌正在努力解決人工智慧的偏見問題。在週二舉行的谷歌I/O大會上,該公司CEO桑達爾·皮查伊描述了一項旨在深入瞭解谷歌AI演算法是如何運轉並確保它們不會“強化已經存在這世界上的偏見”的研究。
具體來說,這是一種被稱為TCAV(使用概念啟用向量進行測試)的技術,該技術是為了實現比如不要假設醫生就是男性等目標而提出。
皮查伊說道:“僅僅知道AI模型有效是不夠的。我們必須知道它是如何運作的。早在機器學習出現之前,偏見就一直是科學界關注的問題。(在這個問題上)AI的風險顯然更高。”
回覆列表
謝謝邀請。說起中國智慧,無有不能,現在天上飛的,地上跑的,吃的,用的,那個不是科枝智技能所創造?據說,將來司機開車都不用方向盤了,智慧高速公路出現了。過去人們出門帶那麼多現金,現在帶個手機解決一切問題;還有人們產的造的機器人,可以以假亂真了;工廠裡的智慧機器人能代替工人幹活了,要你幹什麼?還有,未來的智慧能代替你所有的家務,省下老婆的嘮叨,多美好。這不是夢,未來就是現實,你想什麼就有什麼,這不好嗎?那有什麼偏見?還用避開嗎?好事多磨,人類終歸回到自然。不要為新生事物煩惱,方便就是解決一切;願科技智慧更大發展,享受科枝時代成果,幸福美滿也。