本文約3500字,建議閱讀7分鐘。
孫茂松副院長為你介紹大資料與富知識雙輪驅動成NLP未來發展的關鍵。
10月8日,北京智源人工智慧研究院在清華大學FIT樓舉行了“‘自然語言處理’重大研究方向暨‘北京智源-京東跨媒體對話智慧聯合實驗室’”釋出會 。
北京智源人工智慧研究院院長黃鐵軍、京東集團副Quattroporte兼人工智慧事業部Quattroporte、京東人工智慧研究院院長周伯文,以及其他來自北京人工智慧領域的高校、科研院所和企業的代表們出席了本次釋出會。
自然語言處理是全球人工智慧戰略的關鍵
清華大學人工智慧研究院的常務副院長孫茂松做了題為“大資料和富知識驅動的自然語言處理”的主題發言。
孫茂松指出,自然語言處理是全球人工智慧戰略的關鍵,舉例說,“美國國家科技理事會2019年6月釋出的國家人工智慧八大戰略中,有三項與自然語言處理有關”。但是當前,自然語言處理相關技術遠未成熟,突破它瓶頸的關鍵是“大資料與富知識雙輪驅動”。
同時,釋出會上啟動的“北京智源-京東跨媒體對話智慧聯合實驗室”是智源研究院繼今年4月成立的“北京智源-曠視智慧模型設計與影象感知聯合實驗室”之後,第二家和企業共建的聯合實驗室。
根據北京智源-京東跨媒體對話智慧聯合實驗室主任周伯文的介紹,聯合實驗室將聚焦跨模態智慧對話與人機互動領域,針對零售、物流等應用場景,開展大規模跨模態資訊感知、對話、使用者畫像及其應用的技術研究。
大資料與富知識雙輪驅動促進自然語言處理的發展
隨後進行了“圓桌討論:自然語言處理的經世致用之道”,由清華大學副教授劉洋主持,參加討論的學者們分別就“自然語言處理的技術突破和挑戰”、“自然語言和人工智慧的關係”、“自然語言行業應用狀況和未來趨勢”等方面的相關話題,提供了自己的研究視野和專業性意見。
過去十年自然語言處理技術取得非常大的進展,京東的何曉冬博士認為,深度學習是其中當之無愧的重大突破。2012年,他們團隊首次將深度學習用於對話語言理解,結果效能提升了20%,他們隨後建立了一系列模型,包括一些深度語義的模型。
深度學習在某種程度上幫助NLP走出了本身的“反”,也使跨模態學習變成可能,比如現在很新的語言視覺跨模態學習。
清華大學的李涓子教授認為,自然語言處理有兩個很重要的方面,一個是對大資料的理解,尤其是文字資料,另一個是用自然語言做人機互動。
其中不只是深度學習,知識圖譜也是十分重要的突破技術,現在已經到了知識與NLP融合的階段。知識圖譜給了NLP另一個路徑,可能不需要經過分詞和句法語義分析,直接就能從大規模的文件裡面把一篇文章提煉出來。
自然語言處理的進步是被整個網際網路發展的需求驅動,比如搜尋引擎、文字挖掘,NPL正式走向應用還是由這些應用來推動的。
北京大學嚴睿教授認為,自然語言處理能改變生活,還是依賴於機器翻譯的進步。由於神經網路、深度學習等技術推動,機器翻譯已經進入日常生活,比如拿著翻譯寶去世界各地旅行,不需要掌握當地語言就能與當地人交流。
未來在對話系統和語音技術方面或許能繼續深入研究。比如,對話系統可能成為未來改變人類生活方式的技術,向機器提問,機器就能夠回答,這樣可以解放很多人力,把重複的事情交給機器完成。
北京語言大學的楊爾巨集教授認為,說到“哪些NLP技術目前已經成功應用於人們的日常生活”,這需要和語言分開,智慧輔助學習是讓計算機幫助人學習語言,在這個非常窄的領域裡,英文做得非常好,但是沒有漢語。
在公共媒體上,每年學習漢語的人越來越多,每年參加漢語考試的人也越來越多,但是一款真正的能夠幫助外國人學習漢語的智慧學習機器還沒有,這是一項巨大的挑戰。
其中肯定有漢語本身的難度,但是也不得不考慮NLP的難點是什麼,就像語言分為本體研究和應用,就像詞法分析、句法分析等,這些語言學知識能夠支撐自然語言處理或者說語言學習達到什麼狀態,或者說隨著技術發展,這些知識對語言分析的結果在智慧語言學習裡起到什麼作用,還不太知道。
之前做機器翻譯要考慮句法分析和句子結構,有深度學習之後就不用了,但是在語言學習裡面的具體情況,是不是要學結構、結構怎樣融入到現在的學習裡面,是沒有解決的問題。
另外就是語言本身承載的內容,比如不知道中國的政法大學就是國外的法政大學,外語裡可能也是法在前政在後的模式,如果沒有中國大陸範圍的知識,就改不成政法大學,這背後又是非常寬的知識,這個知識怎麼和本身的語言的東西結合起來,也是很大的挑戰。
京東的何曉冬博士介紹了NLP技術在京東上線的應用,最傳統的還是智慧客服,京東智慧客服在雙十一期間每天會接到數百萬的訊息,機器能完全解決的比例大概達到60%、70%,所有的訊息首先都會用機器接待,如果太難再轉向人工。
另一方面,京東也想通過機器來幫助人工客服做得更好,人工客服是一個壓力很大的工作,一天8小時都要聽別人的抱怨。考慮到這點,京東會用機器儘可能地把一些知識過濾,減輕人工客服的壓力,這是NLP技術對於客服的貢獻。
在這之外,京東還將NLP應用到其他方面,比如商品上架或者商品的標題、廣告等,京東有一個頻道叫“發現好貨”,很多都是通過NLP技術來挖掘商品賣點。
北京大學的穗志方教授區別了影象識別等領域和NLP領域,NLP不僅是感知,更多涉及到推理知識的利用,語言的認知屬於認知智慧,不僅需要解決表層問題、理解語言,還需要挖掘語言背後所蘊含的深層含義。
自然語言處理的發展與深度學習分不開,但是也會逐漸遇到瓶頸,即資料量總是不夠的,那麼能否藉助人類的先驗知識,把這些融入到深度學習正規化之上進行擴充,這是更大的問題。
楊爾巨集教授補充道,2009年有一篇文章提到,把整個的神經元是做成了具有句法的資訊,從深度學習的結果來看,能提高處理效能。2017年也有一篇這樣的文章,提到說,本身結構或者說語言學本身的知識在語言處理裡肯定能發揮作用,但怎麼運用或者是對什麼任務有用,這個還需要進一步探索。
何曉冬博士認為,語言和其他領域的融合是一個重要的趨勢,比如在機器人方面,讓機器人聽懂語言級別的意思,然後去做一些事情,比如直接給智慧體一個意思,到門口右轉,看到樓梯下去,左邊有一個售貨機,幫我買一個可口可樂。
針對目前NLP技術面臨的挑戰,韓先培教授認為主要的技術挑戰是用深度學習挖掘大資料中的隱藏模式,這道路可能逐漸進入了一條平緩期。未來利用大資料和富知識的雙驅,把這兩種模式結合在一起,才會取得更大突破。
嚴睿教授教授同意深度學習的瓶頸存在,同時提出,知識沒有充分被利用是因為在語言背後蘊含了常識性的知識,但是如果不告訴機器,就很難把常識體現在結果中。
自然語言處理還面臨一項挑戰,就是用大量的資料重複訓練,這樣學習得到的經驗是不夠的,這也不是人類的方式。人類是通過長期以來的知識積累,通過較少樣本就可以得到很好的學習狀態,但是機器現在是做不到的。
李涓子教授認為,很多人在做機器怎麼去理解文字,然後通過問答來去體現機器對文字的理解的過程。但是人在閱讀文字的時候,不是以文字的形式進行記憶的,因此從認知以及對知識的利用角度去做機器理解或許能產生突破。
嚴睿教授補充道,語言和其他的訊號有本質區別,語言有嚴格語法和句法,它還具有很強的多義性和相關性。能不能通過大資料把語義的模糊性解決掉,再通過某種程度的知識把邏輯性解決,上下相加才能夠真正的把NLP驅動。如果這樣做的話,也許會創造一個新的模式,從而把認知智慧提高到更高的高度。
穗志方教授認為,下一步NLP的發展,一個是多模態的融合,一個是知識驅動。多模態融合利用深度學習、機器學習的模式,逐漸走向資料匱乏。自然語言處理不能越做越窄,要把它和影象處理等聯絡起來,還要了解人類的認知過程以及人腦對於語言的認知機制。
其次,一定需要知識驅動,但是現在知識的問題也有很多。在理想狀態下,希望把全世界的知識交給計算機,知識是無邊無際的,怎麼對知識建模?是廣度優先,還是寬度優先?針對什麼領域建立知識庫?知識構建的邊界在哪裡?有了邊界以後,知識體系如何滿足計算機分析的需要?如何建立深度的對接?
穗志方教授認為自然語言處理的每個中間階段的成果都會及時的服務於人們生活的方方面面,同時一定要定位輔助的角度,比如智慧教學、遠端教學、輔助外國人漢語學習。未來五年到十年自然語言處理的輔助功能,在方面都會有應用的。
何曉冬博士把未來的發展目光放在了多輪、跨模態任何驅動的大規模的對話系統上。
李涓子教授希望的突破是每個人都有一個個性化、對我們在生活和學習中有幫助的自然語言對話的個人助理。
嚴睿教授贊同李娟子教授的暢想,希望未來有一個機器大白,或者像鋼鐵俠裡面的管家一樣。除了這個,可能會有大量的機器寫手出現在生活裡,在未來某一年自然語言處理的技術達到一定狀態之後,獲取的資訊可能來自於機器創作,從而可能催生其他的應用,比如鑑別真偽和可信度,怎麼更好的利用這些機器創作的結果,輔助我們做更好的任務。
— 完 —