從谷歌搜尋和約會網站到檢測信用卡欺詐,人工智慧(AI)一直在尋找新的方式進入到我們的生活中。但我們能信任驅動它的演算法嗎?
作為人類,我們會犯錯誤。我們可能會出現注意力失常,誤解資訊。然而當我們重新評審視時,我們可以挑出錯誤並糾正它們。但是當一個AI系統犯了錯誤時,無論在相同的環境下看了多少次相同的資料,它都會一次又一次地重複。
AI系統是不可避免地使用反映過去的資料進行訓練的。如果一個訓練資料集包含了過去人類決策的固有偏見,這些偏見就會被系統編纂和放大。或者如果它包含的關於特定少數群體的資料較少,那麼對該群體的預測就會趨於糟糕。這就是所謂的 "演算法偏見"。
演算法偏見是如何產生的?
演算法偏見可能是由於缺乏合適的訓練資料,或者是由於不適當的系統設計或配置而產生的。例如,一個幫助銀行決定是否發放貸款的系統,通常會使用銀行以前的貸款大量資料集(以及銀行可以訪問的其他相關資料)進行訓練。該系統可以將新的貸款申請人的財務歷史、就業情況和人口統計資訊與以前申請人的相應資訊進行比較。由此,它試圖預測新申請人是否有能力償還貸款。
但這種方法可能存在問題。在這種情況下,可能產生演算法偏見的一種方式是透過之前貸款經理對抵押貸款申請做出的決定所產生的無意識偏見。如果客戶過去被不公平地拒絕貸款,AI會認為這些群體的普遍還款能力低於實際水平。年輕人、有色人種、單身女性、殘疾人和藍領工人只是一些可能處於不利地位的群體的例子。
演算法偏見對個人和公司都有風險
上述有偏見的AI系統給銀行帶來了兩個關鍵風險。首先,銀行可能會錯失潛在客戶,將偏見的受害者送到其競爭對手那裡。根據反歧視法,它還可能被追究責任。如果一個AI系統不斷地在其決策中應用固有的偏見,那麼政府或消費者團體就會更容易識別這種系統性模式。這可能會導致鉅額的罰款和懲罰。
減輕演算法偏見
五種減輕演算法偏見的方法。可以應用於各行各業的企業,幫助確保AI系統的公平和準確。
1. 獲取更好的資料
透過獲取更多的資料點或新型的個人資訊,特別是那些可能在現有資料中出現不準確的人,可以減少演算法偏見的風險。
2.對資料進行預處理
3. 增加模型的複雜性
一個簡單的AI模型可以更容易測試、監測和詢問。但它也可能不那麼準確,並導致偏向多數人而非少數人。
4. 修改系統
可以主動調整AI系統的邏輯和引數,直接對抗演算法偏見。例如,可以透過為弱勢群體設定不同的決策門檻來實現。
5. 改變預測目標
選擇用來指導AI系統的具體措施,會直接影響到它在不同群體中的決策方式。找到一個更公平的措施作為預測目標,將有助於減少演算法偏見。
採用AI決策的政府和企業的建議
在向想要採用AI決策的政府和企業提出的建議中,首先強調在使用AI決策時必須考慮公平和人權的一般原則。而這一點必須在系統投入使用之前完成。還建議對系統進行嚴格的設計和測試,以確保輸出結果不會受到演算法偏見的汙染。一旦投入使用,就應該對其進行密切監控。
最後建議,以負責任和道德的方式使用AI系統,不僅僅是遵守狹義的法律條文。它還要求系統與廣泛接受的社會規範保持一致--並考慮到對個人、社群和環境的影響。
隨著AI決策工具的普及,如果我們謹慎地使用他們,我們不僅有機會提高生產力,而且有機會創造一個更加公平公正的社會。