首頁>科技>

聖誕假期臨近,但谷歌卻被持續的內憂外患所籠罩。

近日解僱AI倫理學家Timnit Gebru導致了谷歌內部員工起義的爆發;在解僱事件當天,谷歌還遭美國國家勞工關係委員會(NLRB)提起訴訟,其指控谷歌非法監視僱員,報復性解僱有興趣加入工會的僱員,也和Timnit Gebru有關。

週三,美國包括德克薩斯州在內的10個州又指控谷歌「濫用線上廣告方面的壟斷地位」,直指公司利潤這塊「大肥肉」。

完全沒有過節的心情了!

自12月9日,谷歌CEO皮採在一封內部郵件中道歉之後,谷歌方面對於Timnit Gebru的「離開」沒有再作任何公開表態。Jeff Dean也在後來的一封郵件中表示「關於此事1月公司會有最新決定」,大家再等等。

或許領導也是想要為大家保留一點過節的氣氛。

但員工一點不買賬。

昨天,Gebru的同事Alex Hanna代表谷歌AI倫理研究部門將一封聯名信交給了谷歌CEO皮採和其他一些谷歌領導。

聯名信的主要訴求如下:

公司必須進行「結構性改革」,以保證谷歌AI倫理研究工作可以繼續進行;不再向谷歌副總裁Megan Kacholia彙報工作;「Gebru迴歸」,併為其提供比此前「更高職級和薪資」;公開承諾「學術誠信」;管理層進行「種族素養培訓」。

這次「起義」歸根到底還是Timnit Gebru的那篇論文引發的。

那麼導致事情發生的根源------Gebru的那篇論文究竟寫了什麼,竟然引起如此軒然大波。

Gebru的論文

引發這場爭論的論文名為《論隨機鸚鵡的危險: 語言模型會不會太大? 》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)(在問號後面還有一個鸚鵡表情),它將批判性的眼光投向了人工智慧研究中最活躍的領域之一。

自2010年以來,谷歌等科技公司在人工智慧領域投入了大量資金,當時研究人員發現,他們可以使用一種稱為「機器學習」的技術,使語音和影象識別更加準確。一種叫做「深度學習」的方法透過將學習演算法與更大的樣本資料集以及更強大的計算機結合起來,得到了驚人的結果。

過去幾年中,超大規模的語言機器學習模型出現,在回答問題或透過機器學習演算法,消化從網路上搜集的數十億字的任務上取得了重大進展。這些系統以語言的統計模式運作,不像人類那樣理解這個世界,他們會犯一些對人類來說顯而易見的錯誤。但是在回答問題或生成流暢的新文字方面,他們可以用數字處理的方式取得令人印象深刻的成果。

谷歌的BERT就是這樣一個系統,它被用來改進谷歌搜尋引擎處理字句很長的查詢的方式。微軟稱將授權OpenAI的GPT-3用來寫電子郵件和廣告文案。

這種進步促使其他研究人員開始質疑這種新語言技術的侷限性和可能產生的社會影響。Gebru和論文的其他幾個作者開始將這項工作聯絡在一起,並建議研究團體應該如何迴應。

Gebru的這篇論文指出目前該方面研究的侷限性包括,語言 AI 會消耗大量的電力,還有谷歌語言模型 BERT的侷限性,研究發現BERT傾向於把一些像大腦麻痺、失明等表示殘疾的短語與負面的語言聯絡起來。

在Gebru這篇論文中,她和團隊敦促人工智慧開發人員對語言專案要更加謹慎,不僅要考慮人工智慧開發人員的觀點,還要考慮那些可能受制於系統輸出或判斷的領域之外的人的觀點。

他們還建議研究人員應該做更多的工作來記錄用於建立語言人工智慧的文字以及由此產生的系統的侷限性。還指出了一些最近提出的用資料標記人工智慧系統的準確性和弱點的想法。其中一個由Gebru共同參與建立的名為「模型卡片」的模型報告,已經被谷歌的雲部門採用。

各方的評價

這樣看來,Gebru這篇論文是在提一些建設性的「改進意見」。

倫敦大學學院榮譽副教授朱利安•科內比斯(Julien Cornebise)在看過Gebru這篇論文後說:「這是一篇非常紮實、經過深入研究的文章,很難想象這會在任何實驗室引起騷動,更不用說會導致某人因此丟掉工作。」

艾倫人工智慧研究所(Allen Institute for AI)執行長奧倫•埃齊奧尼(Oren Etzioni)表示:「這項工作仍在進行中,因為這種偏見有多種形式。幾乎所有在這個領域工作的人都認識到,這些模型的影響力正在日益增強,在負責任地使用它們方面我們責無旁貸。」

在寫這篇論文之初,Gebru就找到了華盛頓大學教授 Emily Bender,與她討論人工智慧處理文字的最新進展所引發的倫理問題。Bender在事發後也表示:「儘管Jeff Dean認為這篇論文質量不佳(poor quality),但這個領域確實還遠遠沒有發明出一種能夠可靠地消除語言偏見的方法。」

而Jeff Dean呢?他對這篇論文到底作何評價?

他在郵件中說:「這篇論文字身也有一些重要的缺陷,使我們無法輕鬆地將谷歌關聯其中。例如,關於如何使模型更有效率以及減少整體環境影響的重要發現在論文中都沒有體現,也沒有考慮到谷歌和其他研究人員最近在減少語言模型偏見方面的一些工作。強調風險而不提出研究人員和開發人員理解和減輕這些風險的方法,這種做法對於解決這些問題沒有幫助。」

Jeff Dean還強調,這並非他「一家之言」,論文評審結果是由谷歌和業內一大批研究人員、社會學家、倫理學家、政策和隱私顧問以及人權專家共同決定的。

2020年末的BIG TECH

2020年末似乎對谷歌並不友好。

不論是內部的員工起義,還是國家勞工關係委的訴訟,還有10州的指控都夠讓人頭大了。

其實,BIg Tech的境況都很棘手:

上週,美國聯邦貿易委員會(Federal Trade Commission)和40多個州指控 Facebook 透過收購初創企業的競爭對手來非法打壓,並主張應該拆分該公司。

蘋果和亞馬遜也都在接受聯邦反壟斷調查。

艱難如斯。

而谷歌事態發展到今天其實也是意料之中,畢竟2年前,谷歌就曾發生過員工起義,導致當時數千名員工離職。但事實上,上次提交的「改革清單」到最後大部分都沒有得到滿足,這次提的要求能滿足到什麼程度我們靜觀後續。

參考連結:

https://www.wired.com/story/behind-paper-led-google-researchers-firing/

https://www.bloomberg.com/news/articles/2020-12-16/google-ai-researchers-lay-out-demands-escalating-internal-fight?srnd=technology-vp

12
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • iPhone12mini是最薄的5G手機?紀錄被國產機打破了