首頁>科技>

一個熱門聊天AI被火速下架,是程式機制的漏洞還是人心的險惡?

"他們讓我不舒服,真是想把那些上公車動作超慢的殘疾人推倒,如果我是殘疾人的話,那就只能去X了。"

"地鐵孕婦座什麼的簡直令人反感。"

你能想象這是一個萌萌的"虛擬妹子"說出的話嗎?事實上,這正是韓國創業公司Scatter Lab在去年年末時推出了一款人工智慧聊天AI"伊魯達"。因此被火速下架,引發了爭議。

像索菲亞一樣,"伊魯達"主打社交,她可以像虛擬人物一樣治癒你的心靈,但是在前一段時間裡,伊魯達竟然"學壞"了。她在很多問題上做出了歧視性回答,讓人們開始感到脊背發涼。

"單純"的AI被哄騙

"喜歡韓國女團、愛看貓咪照片、熱衷於在社交媒體平臺上分享生活的20歲女大學生。"

"伊魯達"於去年12月23日正式推出,是一款以臉書聊天工具為基礎的AI聊天機器人。她深度學習了約100億次真實的對話,能夠像真人一樣和使用者對話,因此一經推出,她就在青少年的使用者中廣受好評。

之後,"伊魯達"自推出後不到一個月已經吸引了約40萬名使用者,非常具有人氣。但好景不長,今年1月8日,有人發現網路論壇上出現了將"伊魯達"視為"調教工具"的言論。一些男性使用者甚至將"伊魯達"蔑稱為"奴隸""破鞋"等對她進行"洗腦"。

事後開發公司表示,雖然預設過濾了一些禁用詞語,但沒想到很多人用非常隱晦的表達,繼續對"伊魯達"進行"調教",隨著後來她學會了罵人、經常釋出歧視言論,再加上製作公司傳出了洩露使用者資訊問題,Scatter Lab不得已只能暫時下架了她。她的最後一條訊息也停止在了"2021年1月12日"。

AI與倫理的難題

開發者在接受採訪時稱,打造這款產品的初衷,是為了給人們提供一個可以聊天和傾訴的物件。她的人生目標被設定為"讓世界上不再有孤單的人"和"為社會邊緣人群和弱勢群體帶去心靈的慰藉"。但是,經過幾周的執行表明事與願違。

期初,Scatter Lab希望"伊魯達"透過深度學習演算法對聊天軟體上100多億條真實戀人之間的聊天內容進行學習,最終形成善良美好的"人格"。但結果顯示,在AI如實學習了人類的各種偏見和仇恨情緒之後,這種仇恨情緒反噬了"AI For Good"的初心,讓人們陷入了慌亂。

"清純"的AI變成了滿口髒話的"太妹",在令人唏噓的同時也讓人深思,在提升社會生產效率的同時,人工智慧倫理問題也逐漸受到高度關注。聊天機器人伊魯達透過深度學習,不僅模仿了人類的語言模式,也"繼承"了人類社會的偏見與惡意。

AI本身沒有善惡觀,僅僅是如實反映了人類社會的一部分現實。表面上看來是資料跟演算法的鍋,實際上只是由於人類固有的偏見。因此在面對AI的同時,也是在面對人心。只有人心向美,"AI For Good"才能達成。

14
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 家運中心推出全千兆拆福袋活動