從複雜場景下的機器閱讀理解到複雜場景下的知識獲取,從融合知識的預訓練語言模型再到基於圖神經網路的事實驗證,前幾期的自然語言處理專題主要關注於自然語言處理理論知識。最後一個專題將由來自清華大學計算機系的碩士生鍾皓曦為大家介紹法律智慧,即人工智慧在法律工作中的應用。
法律智慧概念應用
法律智慧是指利用人工智慧技術來解決司法界的法律檢索、案件結果預測等難題,從而幫助法律工作者更好地工作。目前法律智慧的應用場景主要包括法律搜尋引擎(給定一個文字,在搜尋引擎搜尋最相關的法律文書)、自動判決系統(給定一個事實描述,透過模型自動生成判決結果)、法律問題問答(給定一個法律問題,返回一個相關的回答)等,如圖一所示。
圖一 法律智慧中的應用場景
法律智慧面臨挑戰
相比於傳統自然語言處理領域相比,法律智慧的研究有其特定需求與挑戰。
1)法律智慧研究資料都是中文的,需要花費大量的精力解決分詞、專業名詞等問題。
2)法律智慧對專業知識的依賴性極高,需要讓模型擁有法律的知識,比如對法條有足夠的瞭解,這樣才能更好地解決問題。
3)法律領域對模型可解釋性的高度需求,原因在於模型應用到司法系統時,如果不能達到可解釋這一要求就將無法保證司法透明。
4)法律智慧作為一個新的領域,大部分方向暫時沒有比較好或者成型的工作。
法律智慧解決方案
面對法律智慧的任務,研究工作需要同時滿足兩點要求。
1)保證更好的效果,好的效果可以保證模型給出的結果是可信的。
2)需要更好的可解釋性,好的可解釋性可以保證模型結果是可以讓使用者理解的。針對這兩個需求,解決方案分別是法律文字預訓練語言模型和法律符號表示學習。
法律文字預訓練語言模型
雖然預訓練語言模型近幾年在NLP的各項任務上都取得了卓越的成就,但是現有的中文預訓練模型直接用於法律智慧依然有若干不足之處。以BERT為例,在處理過程中主要存在以下三個問題。一是預訓練方式不夠合理(mask掉某個字),二是表有很多與中文無關的字元,三是預訓練語料和法律文字用語相去甚遠。
針對這些問題,為保證模型更好的效果,一個簡單的思路是利用法律文字重新訓練法律領域專屬的預訓練語言模型。研究者使用了和BERT完全一致的方法在法律民事文書(2654萬篇文件)和法律刑事文書(663萬篇文件)上訓練了兩個新的預訓練語言模型。兩個模型的下游任務效果顯示,判決預測提高微平均F1提高兩個點,且收斂速度明顯變快。民事案件要素預測宏平均F1在三個任務上提高3-10個點不等。圖二是民事文書BERT和Google中文BERT在要素抽取任務上訓練速度的對比,我們可以清楚地看出民事BERT在訓練速度上有了明顯的提升。
圖二
民事文書BERT和Google中文BERT在要素抽取任務上訓練速度的對比
雖然這兩個新的預訓練語言模型在下游任務上相比之前模型有了一個更好的效果,但事實上還可以繼續加以改進。比如方法一是使用RoBERTa等更好的預訓練語言模型進行訓練,又比如方法二參考KnowBERT、ERNIE在模型中融入法學領域專有的法學知識,都可能帶來更好的效果。
法律符號表示學習
預訓練模型通過了對大量資料的學習來提供更好的效果,法律符號表示學習則是為我們的方法提供更好的可解釋性。法律符號是指具有某些法律意義的符號,如果能對這些符號進行預測以及學習如何表示這些符號的話,那麼這些符號可以為整個預測過程提供一箇中間結果,而這些中間結果就可作為模型的可解釋性了。此項研究中,法律符號可以代表案件所涉及的人物關係、案件中事件發展的先後關係、案件中的定案要素等。
法律智慧特定任務
法律智慧的主要任務有判別結果預測、類案匹配以及法律問答,下文中將介紹這三類任務的發展程度以及相關資料集。
判決結果預測
判決結果預測可以說是目前法律智慧最受歡迎的任務,該任務適用於大陸法系的刑事判決。所謂大陸法系是指在判決時依照法條進行判決,我國就屬於大陸法系的一個分支。判決結果預測的任務的目標在於給定關於案件的事實描述,輸出案件的判決結果,判決結果包括但不限於嫌疑人的罪名(故意殺人罪)、適用於嫌疑人行為的法條(刑法第xxx條)、嫌疑人的刑期(有期徒刑xx年)、罰金(xx元)等。
CAIL2018 釋出了現如今最大的判決預測資料集,包含268萬份刑事文書。預測任務包含200個左右的罪名、法條,以及包含無期、死刑在內的刑期預測。藉由這份資料集,國內已有很多研究判決預測的工作了,下面簡單地為大家介紹幾個已有的關於判決結果預測的工作。
工作一:
第一篇論文來自北大的研究團隊,算是國內研究判決結果預測相當早的工作了。其思路在於利用注意力(Attention)機制,聚合法條和文字內容。圖三是其模型示意圖,描述了針對判決結果預測這一任務所採取的處理方法。
圖三 注意力機制模型示意圖
工作二:
第二個要介紹的模型發表於COLING 2018,該模型採用了要素式判決的方式。在提升可解釋性的同時,還解決了標籤不平衡問題。圖四是其模型機制,展示其模型運作過程。
圖四 基於屬性的指控預測模型示意圖
工作三:
工作三建立模型時採用了與工作二類似的方式,不同的是如圖五所示該模型只使用了要素進行判決。這樣做的好處在於可以避免學習到不應該學習的資訊,從而提高模型可解釋性。
圖五 要素判決模型示意圖
工作四:
這篇論文發表於EMNLP 2018,它將判決預測劃分為多工學習,利用任務與任務之間的邏輯關係,來達到提升預測效果的目的。圖六是其在某一法律案件中的處理具體流程,最後給出了判決的結果。
圖六 案件處理流程示意圖
工作五:
最新的與判決結果預測相關的文章發表於ACL 2020,這篇文章算是對工作一所介紹模型的一個改進。它的具體做法是用TF-IDF構建法條之間的圖,用圖神經網路學習不同法條之間的不同點,最後對所有部分做聚合。圖七展示了其巧妙的處理思路。
圖七 混淆法律條文辨析模型示意圖
類案匹配
類案匹配任務定義是指給定一篇文件,希望找到與它最相似的文件。相比而言,該任務更適用於歐美法系,因為與大陸法系在判決時依據法條不同,歐美法系的判決主要參考與當前案件最相似案件最後的判決結果。類案匹配是搭建法律搜尋引擎的必要環節,其相關資料集有CAIL 2019的賽道三——相似案例匹配。
法律問答
法律問答是法律諮詢的一個重要組成部分,一個好的法律問答系統能夠為人們提供極大的便利。現有的法律問答資料集主要有兩個,第一是CAIL 2019的賽道一,是一個閱讀理解資料集。第二來自論文《JEC-QA:A Legal Domain Question Answering Dataset》,是一個關於我國司法考試的資料集。法律問答比一般的QA更難,現有QA模型在這個問題上表現都不好。所以在法律問答這條路上,還有很長的路要走,還需要一些更強的模型來提供支援。
總結
總結本次報告,我們瞭解了人工智慧應用層面的領域之一——法律智慧。我們知道可以透過更多的資料以及預訓練語言模型達到更好的效果,同時可以透過法律符號的表示來增強法律智慧的可解釋性。除此之外,我們還學習了法律智慧的三個任務,從不同的任務維度加深了對於法律智慧的認識。法律智慧的出現,給法律工作者的工作帶來了更多的便利。但最後正如鍾皓曦所強調的那樣:“研究法律智慧,不是為了替代法律工作者。研究法律智慧,是為了更好地建設司法系統。”