回覆列表
-
1 # 科技美文篇
-
2 # AI爆米花
人工智慧天然就是有偏見的,不只是性別歧視,還會有地域歧視、人種歧視、年齡歧視、消費歧視、興趣歧視……
就拿我們經常會接觸到的內容推薦演算法來說,衡量它KPI就是:廣告轉化率最大化。所以它會根據你的裝置、網路、日常瀏覽行為、關注物件來捕獲你的特徵,為你打上標籤,甚至關聯其他應用的資料,共同完善你的使用者畫像。
不止是這樣,像婚戀網站為你推送物件時,也會充分結合你的性別、年齡、薪資、資產、身高、長相,然後向你推薦最能打動你的異性資料,讓你為了聯絡他/她而買下會員。
電商網站、遊戲網站、資訊網站......大同小異。不用想,資料越多,人與人之間三六九等就越分明,馬太效應越明顯。人工智慧與大資料,會在溫水煮青蛙的過程中,給社會帶來真正意義上的階級區隔。
人工智慧會導致性別歧視。
早先的程式設計是人類自己定義標準和答案,但是
人工智慧令人可怕的一點是機器的自我學習,透過收集上千個樣本,並基於這些樣本的有關資料透過電腦對其建模。然後,該資料模型就會產生具有一定精準性的全新資料點,同時可以識別其是否符合所有的樣本的特徵。如果人工智慧繼續發展將會出現很多令人深思的問題。
亞馬遜隨後發現了這個問題,後來也沒有再繼續開發這套系統。
這個案例的關鍵點在於,即便求職者簡歷上並沒有標明其性別,系統在自動篩選過程中仍能偏向於男性求職者。
之所以導致這樣的結果,是因為系統能夠從樣本資料中進行模式分析,比如女性在描述個人成就的時候會使用和男性不同的詞彙,又或者女性在學校參加的體育運動和男性也不同。
可見,人工智慧已經出現了疑似性別歧視的案例,我們完全可以猜測:人工智慧發現到後來會不會出現道德,會不會變壞?世界上壞人多了,人工智慧是不是也學壞了?