隨著人工智慧的發展,涉人工智慧犯罪問題成為備受關注的話題。近日,華東政法大學刑事法學院劉憲權教授發表了一篇文章,題目叫《人工智慧時代的“內憂”“外患”與刑事責任》,詳細闡述了關於人工智慧犯罪刑事責任承擔問題。讀完深有感觸,受益頗多。
人工智慧(Artificial Intelligence),就是我們常聽到的“AI”,是指“使機器人像人一樣去完成某項任務的軟硬體技術”。人工智慧可以模擬人類的思考過程,作出判斷,實施行為。
隨著科技日新月異的發展,人工智慧不再是隻出現在科幻電影裡的“王謝堂前燕”,早已“飛入尋常百姓家”,大家手機上的“Siri”、“小愛同學”,家裡的掃地機器人,路上跑得無人駕駛汽車,以及名噪一時的阿爾法狗(AlphaGo)都是以不同形態存在的人工智慧產品。
就像其他各種工具一樣,人工智慧產品也是人類在惰性的激勵下產生的,它的出現無疑給人類帶來了巨大的便利。但隨著人工智慧的進一步發展和突破,這個新生的技術可能會給人類社會現有的倫理和法律規範帶來極大的衝擊,催生新的犯罪形態和與之相匹配的刑事制裁體系就是其中的一環。雖尚不知這一麻煩會在多遙遠的未來出現,但“渴而穿井,鬥而鑄錐,不亦晚乎”,劉教授這篇文章意在未雨綢繆,試圖探討人工智慧技術進一步發展可能帶來的新型犯罪,以及刑法該如何應對這兩個問題。
一、強弱人工智慧劃分
人工智慧產品有不同的劃分標準,比如以是否具有外在形態劃分、以是否體現為人形劃分等等,但是這些劃分並不具有法律意義。劉教授在文中主張,以人工智慧產品是否具有“辨認能力和控制能力”進行劃分,劃分出所謂的“弱人工智慧產品”和“人工智慧產品”。
弱人工智慧產品並不具有辨認和控制能力。這類人工智慧雖然也可以進行判斷並決定接下來的行為,但歸根到底,它的行為不會超出設計者和使用者的意志,換句話說,雖然它們在獨立運作,但並沒有擺脫工具屬性,依然是人類手腳的延伸。我們目前所接觸的人工智慧都是這一類,它們的判斷以及和人類的互動,都在設計和編制的程式控制之內。強如阿爾法狗,也依然是弱人工智慧,因為它決定的每一步棋都是在貫徹設計者的意志,即戰勝對面的人類棋手。
強人工智慧產品就比較具有科幻色彩了,它是指那些具有辨認和控制能力的人工智慧,目前主要存在於各大科幻影視作品中,如《終結者》中的“終結者”、《生化危機》裡的“紅後”、《慶餘年》裡的“五竹叔”等。它們和弱人工智慧產品一樣,也可以在設計和編制的程式範圍內進行判斷和決策,貫徹人類的意志,但另一方面,它們也可以不受程式的控制,進行獨立的思考和判斷,實現自己的意志,即便這個意志和其“主人”的意志相左。
劉教授提到,不要以為強人工智慧的出現是純粹的天方夜譚。“科技的發展是爆炸式的,其發展速度呈幾何式提升”,“隨著深度學習、神經網路、蒙特卡洛樹搜尋、雲計算等技術的不斷髮展和完善,當技術突破下一個瓶頸時,出現具有辨認能力和控制能力、能夠在設計和編制的程式範圍外作出自主決策並實施相應行為、實現自身意志的人工智慧產品,其實並非鏡花水月、海市蜃樓。”人類科技的發展史就是質疑科技發展者的被打臉史。
二、弱人工智慧時代的“外患”
劉教授所稱的“弱人工智慧時代的‘外患’”,是指不法分子利用弱人工智慧完全貫徹使用者意志的特點,命令其實施各種違法犯罪行為,造成惡劣後果的出現。假設現在出現了一款“殺人機器人”,設計者編制程式,命令人工智慧機器人見人就殺,那麼必將造成難以想象的災難。
弱人工智慧可能在未來被用於實施各種犯罪活動,是犯罪分子犯罪工具的大升級。另外,透過利用人工智慧,犯罪分子就無需親自動手實施,這將更有利於犯罪分子隱蔽自己,給偵查機關的偵查和抓捕帶來麻煩。
三、強人工智慧時代的“內憂”
強人工智慧產品的行為模式有兩種:一種是在設計和編制的程式範圍內實施的,這時它和弱人工智慧產品沒有區別,只是使用者手腳的延伸;另一種是超出設計和編制程式範圍,是其憑藉自主意志實施的。在第一種情況下,強人工智慧和弱人工智慧並沒有什麼區別,無需再次討論。第二種情況,即強人工智慧違背設計者和使用者的意志,自主決定實施危害社會的行為,就是劉教授所稱的“強人工智慧時代的‘內憂’”。
科幻作家阿西莫夫在1940年提出了“機器人三原則”:第一,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二,機器人必須服從人類的命令,除非命令和第一條相矛盾;第三,機器人必須保護自己,除非這種保護和以上兩條相矛盾。這三條原則一方面表達了人類對人工智慧產品產生獨立意識後的擔憂,另一方面又表達了人類希望人工智慧不會失控的美好願望。但擔憂不能只靠美好願望來解決,我們還是應當在制度上做“不美好”的準備。因此接下來就要討論,刑事法律體系該如何應對強人工智慧產品出現帶來的衝擊。
四、應對人工智慧產品犯罪的刑事責任體系構建
弱人工智慧產品犯罪的刑事責任問題非常簡單,現有的刑事責任追究體系完全可以應對,因為弱人工智慧產品無非就是更高效的工具,依然屬於工具的範疇,其實施的行為都是在貫徹人類的意志,因此只追究設計者或使用者的責任即可。強人工智慧產品在設計和編制的程式範圍內實施的行為同理。
有趣的問題是該如何追究強人工智慧產品在獨立意志支配下實施犯罪行為的刑事責任。
劉教授認為,強人工智慧產品在超出設計和編制的程式範圍,在自身意志支配下實施危害社會的行為時,它就應當被認為是一個獨立的刑事責任主體,就應當對自身危害行為所產生的危害結果負責。這一貌似理所當然的結論其實是對刑法體系巨大的衝擊。
當前我國刑法所認可的犯罪主體只有兩類,自然人和單位。自然人不必多言,而另一犯罪主體即單位依然和自然人分割不開。首先,單位是人為擬製的存在,並非實體,它依賴於單位成員而存在。其次,雖然我們承認單位具有獨立的意志,但這個意志是單位成員經過決策程式後形成的,其實也是擬製出來的一種獨立意志。第三,貫徹單位意志的行為最後還是要由自然人來實施。最後,單位犯罪是雙罰制,任何單位在承擔刑事責任的同時,必然有自然人因同一事實承擔刑事責任。以上種種特點都表明,在當前的刑法看來,任何犯罪意志的產生和犯罪行為的實施,都離不開自然人的參與。
相信讀到這裡,即便對刑法沒有太多基礎的人也應該能夠意識到,承認強人工智慧產品是獨立於人類的刑事責任主體,能夠獨立承擔刑事責任,是一個很有顛覆性的觀點。
不過劉教授又提到,自然人也不能在任何情況下都對強人工智慧產品獨立意志支配的行為免責。“人是主體,他既能創造,也應該能夠控制,道義上也有責任控制自己的創造物。”劉教授認為,強人工智慧產品的設計者和使用者理應對強人工智慧產品實施的嚴重危害社會的行為負有預見、監督義務,並應盡其所能避免此類行為和結果的發生。所以當強人工智慧產品實施了嚴重危害社會的行為時,除了它的刑事責任外,負有預見義務和監督義務的設計者或使用者也有被追究刑事責任的可能。如果強人工智慧產品的設計者或使用者違反了預見義務,那麼其可能承擔的是一般過失犯罪的刑事責任;如果是違反了監督義務,那麼可能承擔的是監督過失的刑事責任。當然,如果強人工智慧產品的設計者或使用者既不可能預見危害結果的產生,也確實履行了監督義務,那麼其就無需承擔刑事責任。
劉教授還在文中談到了強人工智慧產品和自然人、單位或是其他強人工智慧產品共同犯罪的問題,在此不再詳細展開。概言之,他認為“兩人以上共同故意犯罪”中的“人”,理應包括強人工智慧產品。
文章的最後,劉教授還暢想強人工智慧產品的刑罰體系,包括刪除資料、修改資料和永久銷燬這層層遞進的三類刑罰方式。刪除資料是指刪除強人工智慧產品實施犯罪所依賴的資料資訊,相當於“強制失憶”,讓他忘掉那些邪惡的想法,迴歸良善的狀態。修改資料是指強制修改強人工智慧產品的基礎程式,將其獲取外界資料、深度學習的能力限制在程式所設定的範圍內,相當於“強制智障”,將它降級成弱人工智慧產品。永久銷燬很好理解,無需進行過多解釋。
不過,對於自然人可能因為沒有盡到對強人工智慧產品的預見、監督義務而承擔過失責任,筆者認為,既然認可其辨認和控制能力及自主意識,並且承認它具有獨立的刑事責任地位,為什麼要設立預見和監督義務,讓其他主體對它自主的行為承擔刑事責任?文中並沒有對他所說的預見、監督義務進行詳細闡述。
隨著科技的進步,人工智慧的出現和發展似乎會對人類超然的地位帶來挑戰,持“人工智慧威脅論”觀點的人並不是少數。筆者本人對於人工智慧技術並沒有太多的瞭解,也拿捏不準強人工智慧給人類帶來“內憂”只是一種純粹的設想,還是說有一定的現實緊迫性,但是不得不說,光是想到那些強大的形象從螢幕走進現實,就讓人感到“恐懼”。人工智慧到底是人類的未來還是一場浩劫,確實是一個需要慎重思考的問題。