首頁>職場>

【51CTO.com快譯】12月初,谷歌解僱知名AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)。這一事件引發爭議不斷甚至遭到內部員工聯名抗議。就在解僱事件當天,美國國家勞工關係委員會還對谷歌提起了訴訟,指控谷歌非法監視僱員,報復性解僱有興趣加入工會的僱員。即使聖誕將近,事件餘韻也未消散。可以說自谷歌兩位創始人一年前離開公司後,這一事件對公司現任管理層又是一次嚴峻大考。

谷歌公司大樓標誌

事件起因

先來回顧一下這起事件的前因後果。

格布魯本人是著名的人工智慧科學家,也是谷歌人工智慧倫理團隊的聯席技術負責人。事件肇始是今年早些時候,格布魯在推特上給華盛頓大學教授艾米麗·本德發了一條訊息。圍繞人工智慧處理文字的最新研究進展可能引發的倫理問題,兩人進行了深入的探討。當討論進展到一定階段時,他們與來自谷歌和學界的另外五名研究者,共同完成了一篇審視人工智慧偏見的研究論文,並在10月份提交給了一個學術會議。

正是這篇論文被谷歌的AI負責人認為“沒有達到我們的發表標準”,在格布魯拒絕了將論文撤回或移除署名後,她被谷歌解僱。在此之後,逾2200名谷歌員工簽署了一封公開信,要求更公開透明地審查這篇論文。在業內,越來越多的人工智慧研究人員公開譴責了谷歌對待格布魯的方式。

論文背後

引發分歧的這篇論文名為《論隨機鸚鵡的危險: 語言模型會不會太大? 》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?),它將批判性的眼光投向了人工智慧研究中最活躍的領域之一。

自2010年以來,谷歌等科技公司已在人工智慧領域投入大量資金,當時研究人員發現,使用一種名為“機器學習”的技術,可以讓語音和影象識別更加準確。這些演算法可以透過消化帶有標籤的樣本資料來改進它們在任務中的表現。其中,一種被稱為“深度學習”的方法,透過將學習演算法與更大的樣本資料集、更強算力的計算機相結合,可以獲得驚人的新結果。

在過去的幾年裡,研究人員著力研究出瞭如何為語言建立超大規模的機器學習模型,透過讓機器學習演算法消化從網路上抓取的數十億文字文字,在機器閱讀理解方面取得了重大進展。這些系統根據語言的統計模式運作,它們不像人類那樣理解這個世界,而且會犯一些對人而言顯而易見的錯誤,但它們可以透過資料處理來取得令人印象深刻的成果,比如回答問題、生成文字等等。

谷歌的BERT就是這樣一個系統,它被用來改善谷歌搜尋引擎處理長句查詢的方式。微軟在此前宣佈,獲得 OpenAI的GPT-3系統的獨家授權,使得微軟能夠在其面向客戶的 AI 解決方案中充分發揮 GPT-3 的自然語言生成和處理能力。

人工智慧領域的這種進步促使其他研究人員開始關注這種自然語言處理技術的侷限性和可能導致的社會影響。格布魯參與合著的這篇論文綜述了之前關於分析和生成語言的人工智慧系統的侷限性的研究,比如構建和訓練AI語言系統會消耗大量電能,另外論文還引用了有關谷歌語言模型BERT侷限性的研究報告。此前就有研究發現BERT傾向於把一些類似腦性麻痺、失明等表示殘疾的短語與負面消極的語言聯絡起來。這篇論文恰恰審視了這種偏見,進而質疑這種大型的語言模型是否會給社會中享有特權的人帶來不成比例的好處,又是否會傷害那些邊緣化的社群和人群。

因此格布魯和其他幾位作者敦促人工智慧開發者對待語言專案要更加謹慎,包括更好地記錄用於建立此類系統的資料。論文提出,構建這種語言系統的研究人員不僅要考慮人工智慧開發者的立場,還要考慮該領域之外有可能受到系統輸出或判斷影響的人的視角。

各方反應

整體來看,引發分歧的這篇論文就是在指出目前AI語言系統的相關侷限性後提出了一些改進意見,而不是在攻擊谷歌或其技術。

倫敦大學學院名譽副教授朱利安·科內比斯(Julien Cornebise)在看過這篇論文後也指出了這一點。“這是一篇非常紮實、經過充分深入研究的文章。很難想象這樣的成果會在任何實驗室引起軒然大波,更不用說會導致有人因此丟掉工作。”

艾倫人工智慧研究所執行長奧倫·艾奇奧尼(Oren Etzioni)表示:“艾倫研究所對這一主題也進行了自己的研究,其中一些成果也被引用在這篇論文裡……目前這項工作仍在進行中,因為偏見有多種形式,幾乎所有在這個領域工作的人都認識到,這些語言模型的影響力正在日益增強,我們有義務負責任地使用它們。”

谷歌人工智慧主管傑夫·迪恩(Jeff Dean)則在郵件中表態:“這篇論文字身存在一些重要缺陷,使我們無法輕鬆地將谷歌關聯其中。例如,關於如何使模型更有效率以及減少其對整體環境影響的重要發現在論文中都沒有體現,也沒有考慮到谷歌和其他研究人員最近在減少語言模型偏見方面的一些工作。強調風險而不提出研發人員理解和減輕這些風險的方法,這種做法對於解決這些問題沒有任何幫助。”

對此,艾米麗·本德在事發後表示:“儘管傑夫·迪恩認為這篇論文質量不佳,但這個領域確實還遠遠沒有發明出一種能夠可靠地消除語言偏見的方法。”

後續進展

自12月9日,谷歌CEO皮採在一封內部郵件中道歉之後,谷歌方面對於格布魯的“離開”沒有再作任何公開表態。傑夫·迪恩也在後來的一封郵件中表示“關於此事1月公司會有最新決定”。基於谷歌的態度和處事方法,有人猜測格布魯的離開或許不僅僅是因為一篇論文。格布魯本人也曾表示,她可能因為批評谷歌在多元化和包容性方面的處理方式,並在最近的群發郵件中建議同事停止參與相關專案而被解職。

值得一提的是,格布魯是谷歌為數不多的黑人女性領導者之一,她一直對科技行業和谷歌對待少數族裔員工的做法提出批評。從這一角度來看,這起事件可以說集中匯聚了近年來引發谷歌員工騷亂的四個問題:人工智慧領域的道德規範,女性待遇,種族問題,以及對谷歌過往開放自由文化的背離。

由於人工智慧所蘊藏的強大潛能和可期前景,隨著AI開發的深入,業界對於AI倫理問題的關注日趨升溫。基於此,谷歌也釋出了一系列人工智慧開發原則,其中包括“對社會有益”和“避免產生或強化不公平的偏見”等準則 。後者正好是格布魯鑽研的領域。她因在Gender Shades專案中的出色表現而出名,這個專案揭示了面部識別技術對黑人族裔的不準確性,她的工作迫使IBM和微軟暫停了對外銷售面部識別技術和產品。

但本次谷歌在解僱格布魯一事上沉默的態度,可以說具有強烈的反諷的意味。曾經的谷歌以開放、理想主義和自由為宗旨,如今似乎也正在轉變為一個更加世俗意義上的企業,在取悅員工和打擊異議兩側危險地走著鋼索。

32
最新評論
  • 工作沒回報,還要繼續嗎?
  • 馬雲預料:未來20年,最容易失業的5種職業,看看你中了沒?