在當地時間週三在OpenReview.net上發表的一篇論文中,谷歌AI和芝加哥豐田科技機構(Toyota technology Institute of Chicago)宣佈,他們的新AI ALBERT在幾項自然語言閱讀理解測試中都獲得了第一名,其在SQuAD 2.0、GLUE、RACE成績方面都拿到了第一的位置。
資料圖
在GLUE中,ALBERT拿到了89.4的分數,在SQUAD中拿到了92.2、在RACE中拿到89.4。
SQUAD 2.0人類平均表現分則為89.452。
據悉,SQuAD2.0結合了SQuAD1.1的10萬個問題和5萬多個新的、無法回答的問題。為了在SQuAD2.0做到更好,系統不僅必須在可能的情況下回答問題,而且還必須確定段落中什麼時候不支援回答並避免回答。
ALBERT使用引數降低技術來減少記憶體消耗並提高BERT的訓練速度。
論文寫道:“我們提出的方法使得模型的規模比原來的BERT要好得多。我們還使用了一種自我監督的缺失,這種缺失側重於對句子間連貫進行建模,並表明其始終有助於下游任務的多句輸入。”
據瞭解,這種技術在網際網路上閱讀大量文字並提供連貫答案方面有著顯著的應用,這可以為搜尋引擎來帶來一個明顯的好處。
在當地時間週三在OpenReview.net上發表的一篇論文中,谷歌AI和芝加哥豐田科技機構(Toyota technology Institute of Chicago)宣佈,他們的新AI ALBERT在幾項自然語言閱讀理解測試中都獲得了第一名,其在SQuAD 2.0、GLUE、RACE成績方面都拿到了第一的位置。
資料圖
在GLUE中,ALBERT拿到了89.4的分數,在SQUAD中拿到了92.2、在RACE中拿到89.4。
SQUAD 2.0人類平均表現分則為89.452。
據悉,SQuAD2.0結合了SQuAD1.1的10萬個問題和5萬多個新的、無法回答的問題。為了在SQuAD2.0做到更好,系統不僅必須在可能的情況下回答問題,而且還必須確定段落中什麼時候不支援回答並避免回答。
ALBERT使用引數降低技術來減少記憶體消耗並提高BERT的訓練速度。
論文寫道:“我們提出的方法使得模型的規模比原來的BERT要好得多。我們還使用了一種自我監督的缺失,這種缺失側重於對句子間連貫進行建模,並表明其始終有助於下游任務的多句輸入。”
據瞭解,這種技術在網際網路上閱讀大量文字並提供連貫答案方面有著顯著的應用,這可以為搜尋引擎來帶來一個明顯的好處。