自 1970 年 Buchanan 與 Headrick 發表《關于人工智能和法律推理若干問題的考察》① 一文以來,嘗試以人工智能化的方式理解、模擬法律論證和推理,已漸成為熱點研究。在人工智能化的支持者們看來,雖然人腦和計算機在結構和機制上全然不同,但在某一抽象層次上具有相通的功能表述。其理論基礎源于以抽象原理(包括定律、規則、程序等)系統表述客觀現實世界經驗的自信:所有的理解都可由形成和操作恰當的表述方式組成。大腦和恰當編程的計算機在這一層次上可被視為試圖尋找到這些表述方式的兩個不同特例,通過形式規則來生成操作符號并指導智能行為。此類操作符號的計算機會幫助使用者更好地理解和使用法律,甚至會通過一個更合理的方法來完成定罪量刑,就如同韋伯口中的那臺自動售貨機。② 那么,司法裁判真有可能被人工智能所取代嗎?
一、司法裁判人工智能化的智識準備:對裁判認知的拆解和實驗
這個問題的答案,類似于如何將計算機打造成一個智能化代理人(intelligent agents),首先必須使機器具備“辨識”個案的能力,才能逐步完成后續的司法難題,而這恰恰是人工智能最為薄弱的環節。讓計算機瞬間算出十位數乘法非常簡單,但是要讓其辨識一個案件是民事還是刑事案件卻非常困難,因為決定人機差異的并不是思考的速度,而是思考的質量。如何讓機器利用自然語言處理能力去理解案件文本,并評估案件中所有可能的含義,是實現司法裁判人工智能化的關鍵,也是連接現實應用與計算機科學技術的核心所在。在司法實踐中,法官需要采用區分技術來分析已有的案例與手頭案件的相關程度,但這種區分技術卻又總是難以言說的模糊狀態。對于人工智能的設計者來說,給計算機編程就相當于告訴一個從未接觸過司法裁判工作的新手:為什么兩個案件之間是存在關聯 (差異)? 他們的聯系(差異點)是什么? 即在信息處理階段,必須將計算機模型調試到可以滿足對個案進行辨識的信息處理要求,再設計出相應的程序來完成數據輸入和數據輸出時的知識展現問題。一旦能夠完成信息處理工作,那么接下來使用特定的語法結構和數據來處理這些工作就會順利很多。
(一)人工智能與法律形式主義的辨析
在思考計算機和法律的關系時,傳統的路徑都默認指向了高度的形式主義 ③ :當在機器中輸入一個特定的案情,機器就能根據規則進行數據運算和推理,設計論證和解釋,并給出裁判結果。這和“自動售貨機”式的形式主義理論不謀而合。因為法律形式主義強調“法律推理應該依據客觀事實、明確的規則以及邏輯去解決一切為法律所要求的具體行為。假如法律能如此運作,那么無論誰作裁決,法律推理都會導向同樣的裁決。” ④ 假使“如果 P 則 Q”的邏輯構想能將法律完全簡化成幾何公式的話,意味著在設計機器語言時只要遵守法律推理的邏輯,便可以得出和法官一樣的判決結果。只不過這種閉合式的法律推理觀建立在一個極為機械、有限的視角上,暗含了要求法官不以個人判斷影響法律推理活動的要求,并同時忽略了在司法裁判中首先要解決的幾個問題:1.識別:案件事實中的哪些因素應該或可以被機器識別為影響裁判考量的“因子”;2.裁量:這些因子在最終的裁判結果中應該如何安排相應的權重系數?因為看似閉合的規則體系其實只具有暫時的正確性,當場景或條件發生變化后,這套規則就會被多種“外來”的因素推翻(這些因素卻可能會成為法官裁量時的重要因子)。這和一些特定領域內的技術性任務,如下棋不太一樣,后者可以使用語義界定較好,范圍固定的術語。但要讓計算機程序去理解人類語言,并作出認知和推理則比較困難。這種復雜性成因源自于在司法裁判的的法律推理過程中,需要對原有規則中定義不嚴密、含義開放的概念,以及由于更多的新知識出現后,而使得原有相對單一性的規則發生變化等情況分別做出識別和處理。整個過程中涵蓋了多種認知技能,如評判事實、條文解讀、類比推理以及辯證思考。而計算機在理解、識別案情以及裁決等方面都存在著缺陷。可以通過一個簡單的案例來說明這種分析路線的復雜性。在某醫療糾紛案件中,患者因術后病情復發而起訴醫院,認為醫院在手術過程中存在過錯。從醫療侵權的證據規則上來看,由于實行的是推定過錯責任制度,只要醫院無法完成舉證責任,就將承擔敗訴的結果,邏輯和規則看似都相當清晰。但如果院方隨后舉證:患者本人的身體體征過于特殊,因而導致了病情復發。在此院方根據自己的操作經驗提出了看法,認為“病人本人的身體特征”可以是阻斷過錯認定的要素,這個反駁要素在法律字面規則上并沒有體現,但需要沒有醫療專業知識背景的法官去衡量這種因素的可能性。再請看:院方提出的一位專家證人出庭作證說:該病癥在臨床上罕見,術后易復發,據臨床文獻報導顯示復發率為 43%。如果說前一個因素是從經驗出發,那么這個辯駁則是訴諸于“科學化的臨床統計材料”。法官要解決的問題便是這兩個因素是否具有說服力,是否可以認定為阻斷醫院具有過錯的介入因素,如果可以,又該如何給這兩個證據分配在推理過程中相應的權重系數。作為“法官”的人工智能首先需要面對證據的篩選工作,判斷哪些信息、以什么方式可以提交給解決事實爭議的數據處理系統,然后再以一個“判斷會計師”的基本形象,將所有與案情判斷有關的信息換算成數字,來表示每一項證據的推論含義,以及需要賦予的重要性,最后再通過某種加權計算公式來得出最終的結果。即使機器可以完成前序的證據篩選工作 (或由人工來代替篩選工作),但由此引發的進一步質疑是:將法官的思考過程用代數算法來表示是否可行,以及應選用哪種方程式來合并這些數值? 如果人工智能在設計機器語言時解決不了這兩個問題,后續的工作就很難展開。
(二)機器“認知”的短板:如何理解和評估案件
人工智能化的司法裁判需要模擬的是,當法官在面對審判信息而做出的認知策略。需要注意的是,當法官參與到一個案件過程中時,其對事實的理解是一個活躍的重新構造理解過程。因為在這個過程里,法官會根據庭審過程中所接收到的信息,進行組織、發揮和再解釋。我們可以通過下列假設陳述來闡明這一過程的復雜性:“眾人參加甲的生日聚會。當所有人都到場的時候,大家開始唱生日歌,甲開心地吹滅了蠟燭。”當多數人聽到這段描述時,都會自然而然地推斷出,在生日晚會上有個蛋糕。我們推斷出有蛋糕,是基于對生日晚會傳統的經驗性理解(因為蠟燭只可能出現在某樣東西的上面)。但對于機器來說,這個過程就很難實現,因為上述語句中并沒有出現“蛋糕”的字樣。這就好比我們在日常開車時,如遇見交警在路邊舉手示意時,會直覺性地意識到自己可能違反了某項交通規則一樣,判斷的根據來自于對警察的權力、通用的手勢等這些文化背景的了解。但如果是一輛自動駕駛的車輛,便會對這種現象“疑惑不解”或“視而不見”。
認識到構造性的理解在現實的法律審判情境中意義重大。因為一方面,數量眾多的證據都是在幾天內集中呈現出來;其次,這些證據通常都是以不連貫、碎片化的方式出現:不同的證人也許就一連串事件中的不同部分作證,不同的物證就案件中的不同事實證明而出現,這些證據的出示并不可能按時間或者因果順序進行系統的排列。于是才會出現控辯雙方就這些證據提出特屬于自己的“案情理解模式”。法官需要在這些互相競爭的“案情理解模式”中選擇可信的一方,或者憑借著自己的經驗和知識,做出自己的理解。
確定哪個證據相關,取決于對證據事實中因果關系的解釋,案情中相關證據的提取、事件的推斷及其因果關系的連接,是以生活經驗、知識為背景,對證據所作的多種演繹推理和邏輯推理的結果。⑤ 正是因為法官會構造不同的案情理解模式,因而會進一步影響到對案件的識別過程。當然,法官根據所出示的證據,所構想出來的案情理解模式可能不止一個,然而通常只有一個理解模式會被認為是“最佳”。哪一個會被識別為“最佳”取決于法官對于該案情理解模式的信任程度,或者說是案情的可接受程度。這同樣是人工智能難以逾越的障礙之一。如當有證人作證,“犯罪嫌疑人在案發當時隨身攜帶有刀具”,類似的表述會立即讓法官加強被告有罪的信念。但如果有證據顯示,“犯罪嫌疑人的職業是生鮮魚類的販商,因此所攜帶的刀具其實是一把剖魚刀”,則又會使法官減弱被告有罪的信念。也就是說,證據在被用于判斷之前,是經過法官組織、闡述和解讀的。法官會依據自己對案情的理解模式,以及該模式對證據的涵攝程度,作出對審判過程中所出示證據的“識別”。其中連貫性、可能性和完整性是影響證據識別過程的重要指標。連貫性體現在被篩選出的證據中是否存在內在矛盾;可能性體現在此類案情理解模式是否與裁判者的認知產生矛盾;而完整性則體現在篩選出的證據是否能組合成法官所預期的案情理解模式中的所有部分,如果有一個或多個成分信息的缺失,就會降低原案情理解的可信度。對這三種成分的評估將會組合起來產生對一個“最佳”案情的識別。機器不僅在理解案情方面存在“認知”短板,而且在裁判能力上也有缺陷。法官在進行判決時所接收的指示信息往往都是非常抽象的且十分冷僻的專業性詞匯,如刑事責任能力、故意與過失等。這些抽象的要件通常是根據行為人精神狀態、犯罪環境條件以及構成犯罪的行為來進行羅列和表述。從認知的角度來看,這是一個將之前接收到的案情與判決范疇要件進行鑒別、匹配和歸類的過程。機器之所以在這個階段也難以發揮其數據處理的優勢在于,這些犯罪要件,如對動機、行為、精神狀態的追問,包括整個罪名敘述,其實都與人類社會對于行為序列的一般性描述有關。它是以人類認知的模式進行組織,而非以機器語言進行描述。
除了涉及到上述法律層面的復雜性以外,司法裁判的另一特點就是其社會影響力:個案中涉及的利益、情感以及最終的裁判結果,都會影響到整個社會對司法工作人員的整體印象,以及社會對司法系統的看法。法官在做決定時,極少能順著一條單一的推理模式做出判斷,很可能要反復思考、權衡各種因子及其權重系數來最終得出一個他認為合理的結論。很多審判中(尤其刑事審判)其實暗含著法律與政治交叉的背景和目的。因此人工智能的設計思路不應只追求審判活動表面的統一化,而是要協助法官(如根據刑罰的幾類經典目的:報復、威懾、預防和恢復)去權衡統一。即使一位非常職業的法官也可能會錯判,或是結果對而推理有問題。尤其在涉及法官裁判中的定量部分,就更難以和其他案件做對比,公眾不買賬,認為裁判不公的關鍵的問題是:為什么會同案不同判?⑥ 不同判是否意味著這些案子就是判錯了呢?一個可能的解釋是,這些案件運用了不同的裁判進路:報復性、威懾性、預防性、恢復性(指罪犯的悔過自新)都是幾個比較重要的點。不同的法官著眼點不一樣,因此也會得出不同的結果。司法活動的這些特點表明對它的研究應采取謹慎的態度。人工智能想要介入的前提要件是通過運算法則將司法裁判工作精確模型化,這個過程極為復雜:因為沒有一項法律推理會比法官的裁判工作更考驗能力。司法裁判往往需要判斷證據的可采性、評價證據的證明力度、解讀法律條文及其他規范性文件的含義和目的,尤其是在刑事案件中,要在懲罰和憐憫之間權衡。如此知識覆蓋面大、技術含量高的工作,人工智能難以勝任。
二、司法裁判智能化輔助系統的展開:要素約簡算法以及案件相似度匹配
雖然人工智能項目在取代法官裁量推理這個領域的野心很大,但就目前人工智能技術的發展狀況來看,還不能完全實現此類(裁判)的模擬。況且,很多人,包括計算機科學家、法學家和民眾并不打算讓計算機系統完全、獨立地取代法官的工作。⑦ 研究者也意識到使用僵硬的計算機模型去取代司法裁量權可能過于冒進,⑧ 與其打造一個不可能實現(又或許是夢魘)的“自動化”法官,不如尋求建立一個實用性工具來支持和協助司法活動,或者建立一個新式的分析工具來幫助理解和模型化司法決策。因此一個智能化的審判體系不是要取代法官,而是要為法官提供更多可供參考的意見。⑨ 這種新型的裁判輔助模式是通過要素分割的路徑來解決人腦知識和記憶的有限性,代之以人工智能的檢索能力來解放法官(律師)的腦力勞動。
(一) ASSYST 系統 ⑩
ASSYST 系統的主要功能是根據美國聯邦量刑指南幫助決策者挑選出有參考價值的信息,而并非代替法官決策。其數據庫涵蓋了基層法院,高級法院以及英屬哥倫比亞上訴法院。其交互界面和功能性菜單大致可以完成如下操作:
1.系統用戶可以從列表中選擇合適的法律領域。
2.用戶將從違法行為列表中選定一個行為。
3.用戶對該違法行為進行簡單的描述。如搶劫:年齡范圍,是否使用槍械以及是否有犯罪記錄。
在經過上述案情描述后,用戶(法官)可以選擇下列任何一種方式:
1.用戶可以查閱在數據庫中所有符合案情描述的圖表,并根據列表查閱個案情況。
2.也可以查閱英屬哥倫比亞上訴法院的所有或相關判決。這些案件將會是以裁判的種類來進行區分檢索的。
3.系統也允許用戶根據加重情節或減輕情節進行檢索。
4.用戶還可以查閱英屬哥倫比亞上訴法院判決中有關適用裁量權的原則或具體情節。
(二) SIS 系統
審判信息系統(Sentencing Information System ,簡稱 SIS)建立的初始目標是:“通過信息的分類處理來推動審判的連續性與一致性”,并認為“提供法庭審判案件的數據信息會比審判委員會或是發展一套審判手冊更易于保證審判的一致”。與 ASSYST 系統類似,用戶在使用該系統時需要輸入以下幾類信息:
1.審判法院(基層或高級法院);
2.適用的法案,章節數或是主要犯罪行為特點;
3.其他犯罪行為是否已被吸收進主要犯罪行為中;
4.主要犯罪行為數;
5.之前的犯罪記錄;
6.行為人是否處于假釋期;
7.辯訴交易;
8.行為人年齡。
然后系統會在輸出端給出具體的數據統計信息。之前的犯罪記錄是以下列四種方式呈現:(1)沒有犯罪記錄;(2)沒有作為主犯的犯罪記錄;(3)至少有一次犯罪記錄;(4) 至少有一次犯罪記錄,并被收監。而犯罪類型則按照以下幾種方式陳列:(1)毒品犯罪;(2)性犯罪;(3)欺詐;(4)財產犯罪;(5)人身侵害;(6)駕駛類犯罪;(7)違反監獄管理 /越獄。
(三)輔助系統的取巧與問題可以看出,裁判智能輔助系統的設計思路其實是將案件拆解成不同的要素(dimension),再以不同的運算法則,如補充、刪減和改變事實中不同要素的方法來生成假設,并將此假設再與新的案件進行比較論證。即在機器語言視角下的法官裁判過程就應該是:
1.對目前手頭待解決的案例事實特征進行歸納,如將案例中的特征歸納為 a、b、c ;
2.查詢裁判輔助系統中可以成功匹配要素的案件,比對手頭案件與指導案件中的特征,如果手頭案件中涵蓋有上述的特征,則待決案件也應適用系統中同樣的規則(原則) P 。此類程序設計辦法旨在為用戶(法官)提供一系列過往類似案件的裁判信息,允許法官了解他正處理的案件的相關特定信息,同時也會列出法院以前通過的類似范圍案件的處罰。因此,從形式上來說,一個裁判智能輔助信息系統是描述性而非規范性的:它不會包含審判者在特定案件中應該怎樣用這些信息來幫助做出判決的內容,而是以技術優勢給法官提供某個特定案件的“平均裁判水平”,以便法官能夠根據數據庫中的數值對自己手頭的案件做出初步的估計。不過,制約此類系統發揮作用的因素也有很多,如系統中數據的多種變量因素的無序組合方式,即是容易被詬病的問題:“所謂的犯罪記錄肯定是按照以下幾個因素來定義的:(1) 前犯的次數;(2)最近一次違法的時間;(3)以前的犯罪記錄中是否有使用過暴力;(4)從第一次犯罪到現在的時間跨度;(5)本次犯罪行為是否比之前犯罪更嚴重;(6) 犯罪人最近所判刑的性質及輕重情況等,這些因素雖然看上去很簡單,但若仔細揣摩,光是這六種變量就有接近 700 多種的組合方式,那究竟該如何理解犯罪記錄呢?”
在每一個案件中類似于像犯罪記錄這樣的變量參數會有很多,這些參數的組合甚至可多達近萬種。對于一個法官來說,如果想要用好這個系統,起步工作就必須熟悉數字形式的信息,并分配好這些參數的量級,如此龐大的工程量會使每一個法官望而卻步。其次,統計數據必須是要在相似案件中才能發揮作用,如果能做到匹配的類似案件可能會非常少,那就意味著數據庫中的統計數據意義就不會很明顯了。
雖然裁判輔助系統試圖為司法裁判提供參考,但從“接收信息的法官會如何將該信息與自己手頭的案件進行匹配適用”這個過程中,就可以看出人腦思維和計算機工作原理的區別:對于電腦來說,就必須按照一個一個的細節來進行匹配分析:對于一個統計型的數據庫來說,特別是存在著龐大的變量因素時,如果需要用戶(法官)自行對犯罪行為中的多個事實情況進行拆分評估,就極容易“造成和掩蓋系統的前后不一致性”。而對于人腦來說,理解案件是一個全觀性的工作,相較于機器提前化的要素分類方法,人類在處理識別案件差異化的能力水平是有優勢的。因為當機器在處理案件要素時認為一個案件可以有意義地分裂成各種分離和抽象的獨立因素時,不可避免地要否認案件中信息間的關聯意義。例如在處理累犯案件時,機器的分析方法會盡力分開記錄每一個定罪,或者,只是記錄某一個主要定罪。但是,這似乎并不是法官考慮案件的方式。在考慮判決的過程中,法官似乎并不愿意只對多次犯罪記錄的指控做出考量,而是會將犯罪行為與其社會背景等因素結合起來,以故事推演的模式來綜合權衡。
進一步的問題是,為了被歸類或者聯系到一個典型的情形時,個別情況就必須被視為“類似”(案件)并對應于某一種類型。這其實并不能解決司法自由裁量權的問題,因為當法官判定案件是否與另一案件類似或案件是否與某一類型相符時,就會使用這種自由裁量權。我們只是可以承認,無論如何都可能存在有效的人工智能化方法來使法官的判刑合理化。然而真正的危險是這可能消除了法官的自由裁量權,而不是使其合理化。
三、知識的表達與理解如何更有效率:司法裁判是否真的需要人工智能化?“司法裁判是否需要人工智能化”與“司法裁判是否可能人工智能化”是兩個問題,后者是可以脫離現實的智力試驗挑戰,研發的目標也許只是想看看智能技術在與法學結合的道路上能走多遠。但如果我們的目標是創造出一個可操作、具有實用價值的系統,就有必要了解系統使用者(法官和律師群體)的需求,仔細考慮前者問題。一名法官為何要自尋煩惱,去根據這套復雜的咨詢系統來進行排列組合,而不自己直接進行判罰? 法官是否有從系統中獲取裁判信息的強烈需求? 他們是否清楚地意識到這個系統有存在的必要? 這不是提供一些技術解決方案并且“天真”地期待它能自我運轉那么簡單。不關注法官的現實需求,而僅憑“為司法裁判提供參考,提高裁判的精確性”之類的冠冕旗號,將可能成為研發失敗教訓的注解。
首先,即使這套系統在技術上趨于完美,并可運用于實踐的話,一些法官必然會將其視為對獨立權力的威脅。法官們在歷史上已經表現出對于那些企圖影響他們自由裁量權因素的敏感度,因而也可以推定強加給他們某個電腦決策支持系統的態度。抵觸、不接受的態度勢必會成為項目實施的不利影響;而且,這些系統會對法官的專業身份造成負面影響,觸發公眾,或是行政官員像審查報表一般來挑戰法官的職業操守,引發尷尬。除非法官們自愿拒絕自由裁量帶來的決斷空間,建議用一套流水線式的工作規則來完全代替他們的判決。這可能出于面對大量增加的工作壓力和有限的預算及人員支持,因而不得不開發出一種新的、資源消耗較少的架構體系,以便加快進程,讓法庭能盡快處理下個案件。在這種需求背景下,原被告所揭示的多樣化社會問題才會被壓縮分類到不同的流水線上。
其次,了解真正指導審判權威性的根源所在,或許才是解答此類系統能否真正發揮實效的決定性因素。如果審判的權威性是來自于上級法院或是其他主體,那么法官也就無需重視其他平級(或下級)法院的判決數據。法官甚至不認為有關注這類信息的必要。因為他們畢竟生活在一個需要關注現有實踐但卻又沒有獎勵回報的工作環境中。在一個倡導司法是為社會管理而服務的體系模式下,當法官們僅僅被視為立法等機關意志的技術實現者,便意味著法官不太可能與立法者、行政部門的意愿經常產生分歧。如果不能強制法官對此信息系統加以關注,也難怪法官會產生對這類信息的冷漠。因此試圖利用數據來規范法官的裁量行為,表面上看起來非常新穎,但事實上卻存在誤導和空想的可能性。類似于像裁判輔助系統的形式,如果僅僅只是作為司法體系內部同行之間的交流,或許是件好事,但未必會受到歡迎。
結 語
雖然試圖將法官的推理過程簡化至一個單純的邏輯模型(simple logical models)的想法并不現實。不過,這樣一種研究路徑并不是毫無意義,相反,對于法律與人工智能研究來說還具有方法論的啟發意義。因為編制、模擬有關司法裁判思維活動的程序,將某種思維程序送進計算機運行,檢驗正確性,這樣一種思想實驗可使“外行人”得以借助人工智能科學的敏銳透鏡去考察法律推理的微觀機制,加深對此類思維活動具體細節的了解。故“一個成功的專家系統很可能比其他的途徑對法理學作出更多的(理論)貢獻。”司法智能化的歷史,既說明了法律在與人工智能化結合過程中的難點,也提供了諸多就目前學科知識所能提供的解決方法。許多精密化的模型和技術,如案例推理技術(case-based reasoning)、正式邏輯辯證(for-mal dialectics)、理論建構(theory construction)、神經網絡(neural networks)、論證與協商(formal ar-gumentation and negotiation)、智能化文書起草(intelligent document assembly)、司法裁量權輔助系統等都借用了人工智能的敏銳透鏡直接或間接解釋了法律推理的過程,促進了對法律問題更系統的研究。但依然需要強調的是智識上的挑戰,未必適合于轉化為大量實踐的可能性和需求性。人工智能一直將模仿人類的認知過程-- 觀察、學習、組織語言、處理數據并最終得出結論-- 作為重點研發技術路線。但在處理司法裁判問題上,也許分析法律問題產生的社會環境會比模擬人的思維過程重要得多。很多時候法官在面對案件時,他們的需求遠不止“請幫我找到某法律第幾條”這么簡單,因為如何去分析和理解問題才是關鍵。至于究竟運用何種技術(電腦還是人腦)去解決,相對并不那么重要。 此文原載于《浙江社會科學》2017年第4期