2017年4月20日,最高人民法院發(fā)布了《關于加快建設智慧法院的意見》,致力于打造網(wǎng)絡化、陽光化、智能化三位一體的智慧法院。智慧法院建設要求人工智能與司法緊密結(jié)合。隨著改革的推進,人工智能介入司法的程度已經(jīng)從內(nèi)部司法行政管理體系擴展到外部審判活動[1],學者們開始關注人工智能給司法原則、證據(jù)規(guī)則和司法認知帶來的沖擊。保守派學者認為人工智能不會改變司法的本質(zhì)屬性,改革派學者認為人工智能會重構(gòu)傳統(tǒng)的法律關系、法律行為和法律方法,甚至帶來一場法律革命[2-3]。因此,審慎觀察和分析人工智能語境下“司法改革”的動向,并積極探索解決對策,對審判活動現(xiàn)代化建設顯得尤為重要。、“人工智能+”背景下的法院智能化進程馬長山教授從實然法的角度構(gòu)建了法律革命的宏大框架,認為未來“人工智能+法律”的發(fā)展會重塑司法認知、司法倫理和司法價值等基本法律理念[2]。但到目前為止,我國智慧法院改革仍處于初級發(fā)展階段,主要表現(xiàn)為以效率價值主導智慧法院發(fā)展的特點,還未進入重塑基本法律理念階段。
一、人工智能介入司法
。ㄒ唬┬蕛r值主導智慧法院的發(fā)展
各地法院遵循效率邏輯,紛紛推出法官智能輔助辦案系統(tǒng),簡化辦案流程、縮短審判時間,處處彰顯著對效率價值的偏愛。與此同時,地方試點開始的智能化改革也逐漸向全國推廣。2016年的第三屆世界互聯(lián)網(wǎng)大會,六國最高院大法官在司法信息化、司法公開、訴訟服務等方面達成了六大共識。2017年的《新一代人工智能發(fā)展規(guī)劃》也將“提升審判體系和審判能力智能化”作為人工智能發(fā)展的目標之一,無論是最高院還是國務院都顯示出建設智能司法系統(tǒng)的決心。
司法實踐處處彰顯出對效率的追求,因為司法效率可以促進司法公正的實現(xiàn)。解決糾紛本質(zhì)是法律關系、法律狀態(tài)的確定過程,所以準確高效地解決糾紛實質(zhì)上有助于社會公平的實現(xiàn)[4]。司法智能化符合效率價值的目標,讓法官擺脫了繁雜機械化的司法工作,讓訴訟當事人走出復雜低效的司法程序。伴隨效率的提高,人們開始質(zhì)疑人工智能只是一味地追求效率,可能忽視了司法公正。司法公正是司法價值的核心命題,但智慧法院呈現(xiàn)的特點是司法公正亦步亦趨,司法效率呈現(xiàn)質(zhì)的飛躍。從嚴格意義上說,司法是一個以司法公正為第一價值的社會活動,目前卻反映出來一種以效率效益為第一要義的商業(yè)邏輯,兩者之間存在價值沖突,可能影響司法的良性循環(huán)。司法的良性循環(huán)表現(xiàn)為司法公正和司法效率相輔相成,人工智能卻難以在兩者之間達到平衡。人工智能專家在設計算法時力求精確化的表達,公正卻如普羅米修斯的臉,“公正”的裁量標準無法精確化,難以統(tǒng)一。換而言之,以算法為核心的人工智能不但無法理解人類社會對司法公正的追求,而且無法突破法律模糊化表達的困境,所以最后也可能陷入一個傳統(tǒng)的法律困境--公正效率之爭。為了避免陷入法律困境,無論是法院還是研發(fā)者都更愿意選擇以效率為首要價值指導司法智能化建設。
(二)智慧法院處于初級司法智能化階段
人工智能分為“弱人工智能”“強人工智能”“超人工智能”[5]。智慧法院的重點在于利用人工智能技術實現(xiàn)法院再造,司法智能化水平也與人工智能發(fā)展呈現(xiàn)出對應關系。目前人工智能技術還處在“弱人工智能階段”,部分領域逐步邁進“強人工智能階段”,法院相應地處于初級司法智能化階段。
伴隨弱人工智能的發(fā)展,上海法院推出了具有35個子系統(tǒng)的智能輔助辦案系統(tǒng)[6]。該系統(tǒng)利用算法提供5種服務:自動生成電子卷宗、自動關聯(lián)與當事人相關的案件、智能推送輔助信息、自動生成與輔助制作各類文書和智能分析裁量標準。這個系統(tǒng)主要為輔助性司法活動提供幫助,簡化司法審判的程序性活動,沒有為司法裁判的核心活動提供新分析工具。新分析工具的應用主要集中在司法推理模式的重構(gòu)方面[7],司法推理包括對類似案件的分析和對法律規(guī)則的解釋等方面,并非是一個單調(diào)的線性推理過程,必須建立在類比演繹等深度學習的人工智能之上。新分析工具的應用需要與強人工智能相結(jié)合,弱人工智能階段的司法輔助系統(tǒng)無法處理法律與道德倫理的關系,也不符合以“社會效果”為導向的法律裁判邏輯,相應地法院改革也無法突破弱人工智能的限制。弱人工智能具備處理簡單特定任務的優(yōu)勢,提升了法院內(nèi)部司法系統(tǒng)的效率,卻沒有給智能司法外部系統(tǒng)的構(gòu)建帶來實質(zhì)性的成效。司法過程是一個法官居中裁判、當事人相互博弈的三方構(gòu)造,除涉及法院內(nèi)部司法行政系統(tǒng)之外,還涉及當事人之間、當事人和法院之間的法律互動過程。這種“法律互動過程”也可以稱之為“智能司法的外部系統(tǒng)”。外部系統(tǒng)的改造起始于“微信審判”和“QQ審判”[8],2007年,福建省沙縣法院利用QQ審理了一起跨國離婚案件,這起案件的審判改變了傳統(tǒng)法庭審判的地點,將物理空間置換成了網(wǎng)絡虛擬空間,節(jié)約了法院和當事人的時間成本,將一天的工作時長縮短為半個小時。外部系統(tǒng)利用互聯(lián)網(wǎng)技術改變了法庭審判的溝通交往媒介,利用了弱人工智能的語音識別、圖像識別傳送技術,卻沒有利用人工智能的分析、推理等與深度學習相關的核心技術,只是涉及到了人工智能的冰山一角。
(三)智能司法系統(tǒng)的研發(fā)主要依靠公私合作
根據(jù)以往的研發(fā)經(jīng)驗,僅依托于最高人民法院自身的技術無法滿足提升司法效率的需求。以最高院裁判文書網(wǎng)為例,它的算法設計本身就存在天然缺陷,關鍵詞設計不合理,模糊檢索功能遠不如北大法寶、無訟、openlaw等網(wǎng)站。相較之下,私人企業(yè)的技術優(yōu)勢得以凸顯,迄今為止公私合作研發(fā)智能司法系統(tǒng)逐漸成為擺脫技術桎梏的最佳途徑。
全球的法律科技上市公司呈現(xiàn)出指數(shù)增長趨勢,從2009年到2016年增長了1149家[9]。其中國際律所Dentons研發(fā)的機器人律師ROSS于201年投入使用。無訟研發(fā)的機器人“法小淘”也于2017年投入使用。這證明市場導向的商業(yè)活動已經(jīng)催生出一批批的人工智能法律產(chǎn)品。企業(yè)掌握著先進的人工智能技術,并與法院合作共同研發(fā)人工智能法律產(chǎn)品。如上海市浦東新區(qū)政協(xié)委員周蘭萍主張利用“互聯(lián)網(wǎng)+PPP”的優(yōu)勢打造智慧法院。上海高院與科大訊飛公司合作,歷時5個月成功研制了“206”系統(tǒng)[10]。浙江省高級人民法院與阿里巴巴集團簽署戰(zhàn)略合作框架協(xié)議,聚焦阿里巴巴旗下的淘寶、阿里云和螞蟻金服在云計算、大數(shù)據(jù)和用戶方面的資源優(yōu)勢,幫助浙江法院構(gòu)建司法領域的大數(shù)據(jù)服務體系[11]。各地方紛紛積極地與私人企業(yè)合作,共同推動智慧法院的改革。
二、人工智能介入司法的隱憂
。ㄒ唬┤斯ぶ悄芸赡苡绊懛ü俚淖杂刹昧繖
對人工智能介入司法,學者們持兩種觀點:一種觀點認為人工智能甚至可以取代法官、律師成為司法活動的主體[12],另一種觀點認為人工智能在司法裁判過程中只是占據(jù)輔助地位,無法取代法官的主體地位[13-14]。
持前者觀點的學者對人工智能有著盲目的樂觀,甚至有技術萬能主義思想,認為人工智能的工具性價值可以彌合司法裁判模糊性和不確定性的缺陷,使自由裁量朝著統(tǒng)一性和可預見性方向發(fā)展。事實上智慧法院處于初級司法智能化階段,人工智能彌合司法缺陷的能力受到約束。不同于機械地參照適用法律,一個理性的裁判者形成自由心證的過程極為復雜,需要考慮法律解釋、利益衡量、道德倫理和價值判斷等方面,有時甚至還會受到輿論、權力和社會效果等因素的限制。法律專家系統(tǒng)設立的算法規(guī)則無法將主觀因素量化為代碼,所以人工智能裁量結(jié)果也往往有失偏頗。一個法官消極不作為,機械性地以人工智能裁量結(jié)果作為一個法律裁判的決定性因素,意味著法官對技術的盲目崇拜,無法正確認識到技術的局限性!胺ü俚淖杂刹昧俊弊兂扇斯ぶ悄芗夹g的附屬品,變成了“算法的自由裁量”。
持后者觀點的學者堅持法官的主體地位,認為人工智能介入司法的優(yōu)勢在于使法官的自由裁量趨于合理化,爭取同案同判的效果,從而有助于實現(xiàn)司法公正,提高司法公信力,防止司法腐敗。利用人工智能控制法官的自由裁量權是未來智慧法院改革的重點。法官的自由裁量分為“強自由裁量”和“弱自由裁量”[15],強自由裁量關注個案的特殊性,法官需要靈活運用法律原則,例如“許霆案”中法官利用法律原則突破了法律規(guī)則的限制。個案的特殊性與人工智能司法的普遍適用性相違背,人工智能在合理化約束強自由裁量權方面顯得捉襟見肘。弱自由裁量要求法官在相對確定的司法裁量界限內(nèi)作出選擇,關注類似案件的普遍性,算法利用提公因式的方式,將相同的考量要素代碼化,形式上更符合算法邏輯,但也可能增加自由裁量的不確定性。以量刑系統(tǒng)為例,即使是簡單的幾個考量要素也可以任意組合成上百種裁量結(jié)果,對合理化約束法官的自由裁量權并無意義,反而增加法官自由裁量的難度。
居于輔助地位的人工智能還可能抑制法官發(fā)揮主觀能動性,妨礙法官審理新型權利糾紛案件。新型權利是經(jīng)濟發(fā)展和社會交往的產(chǎn)物,在審理新型權利糾紛案件中,法官更需要發(fā)揮主觀能動性去解釋法律,有時甚至需要發(fā)揮“法官造法”的功能。囿于弱人工智能無法深度學習理解法律語言,法律專家系統(tǒng)就無法以現(xiàn)有的數(shù)據(jù)庫為基礎作出合理預判,如果法官由于司法惰性而放棄行使自由裁量權,采納舊數(shù)據(jù)庫作出的預判或者建議,人工智能法律專家系統(tǒng)則會促使法官作出不公正、不合理的裁判。
。ǘ┕胶献餮邪l(fā)可能降低司法公信力
騰訊研究院發(fā)布的《全球人工智能人才白皮書》顯示,全球AI領域人才約10萬,而市場需求在百萬量級[16]。人工智能與法律相結(jié)合的高端復合型人才屬于稀缺資源,公私合作研發(fā)是這種情勢之下的必然選擇,而商業(yè)的逐利性則會誘使私人企業(yè)在設計算法時作出符合自身價值取向的判斷,或是利用數(shù)據(jù)存儲和管理優(yōu)勢誤導法官的裁判。
技術研發(fā)商在利用算法拆解司法裁判活動的過程中可能存在誤判。司法輔助系統(tǒng)的效益取決于技術研發(fā)商對司法活動的理解和算法對自然語言的處理能力。首先,大多數(shù)的技術研發(fā)商是人工智能方面的專家,無法充分理解司法活動。技術研發(fā)商將法律規(guī)則轉(zhuǎn)化為算法的過程是對法律規(guī)則的重新解構(gòu)和建構(gòu),轉(zhuǎn)化為算法的法律規(guī)則必須遵循算法邏輯和法律邏輯,算法設計者必須將兩種邏輯融合一體。其次,符號主義算法和聯(lián)結(jié)主義算法模擬人處理自然語言的能力極度有限,以蘋果siri為代表的語音識別系統(tǒng)尚且無法高度精確化地處理自然語言,其他人工智能系統(tǒng)在處理生僻難懂的法律專業(yè)術語方面更是困難重重。因此,所設計的智能司法輔助系統(tǒng)往往是差之毫厘,失之千里。
除此之外,技術研發(fā)商同時也是數(shù)據(jù)服務商,數(shù)據(jù)服務商是否會利用數(shù)據(jù)優(yōu)勢不正當影響司法的問題還須進一步思考。例如阿里巴巴集團和順豐集團的數(shù)據(jù)權之爭,傳統(tǒng)的反不正當競爭法和反壟斷法完全沒有適用余地,但是兩家公司的數(shù)據(jù)權之爭又實質(zhì)上侵害了消費者權利,如果提起消費者公益訴訟又無法將消費者的實質(zhì)損害進行量化,從而形成有利證據(jù)。在無人提起公益訴訟的情況下,法院無法將其納入司法管轄的范疇。在他人提起民事訴訟的情況下,法院也可能作出駁回起訴的裁定,消費者的隱私權無法得到司法保障[17],司法的公信力也會降低。
。ㄈ┧惴ㄆ缫曈绊懰痉ㄕx
每個法官的自由心證實質(zhì)上是一種“算法”,表現(xiàn)為法律解釋技術。法官在個案中依賴法律解釋技術,所以法律轉(zhuǎn)化為算法的過程存在人的主觀選擇,存在“算法歧視”。
大數(shù)據(jù)、互聯(lián)網(wǎng)、云計算高度發(fā)展的時代,算法被特定化,算法由研發(fā)者設計,那么算法本身就帶有技術開發(fā)者的主觀意識判斷,算法絕對客觀中立的論斷就值得懷疑。算法決策的結(jié)果本來就可能帶有固有的歧視。Northpointe公司開發(fā)一款名為“COMPAS”的犯罪風險評估系統(tǒng),用以輔助法官對犯罪嫌疑人進行再犯風險評估,但是最新的研究表明該系統(tǒng)本身就存在種族歧視[18-21]。該系統(tǒng)的最終目的是為了更好地預測犯罪人的再犯可能性、社會危害性及人的主觀惡性,以避免刑事裁判受到法官個人主觀偏好的影響。實踐卻背離了初衷,該系統(tǒng)在類似案件中評估黑人和白人的再犯風險時,黑人的再犯風險評估結(jié)果遠遠高于白人。這是由于算法在將法律規(guī)則轉(zhuǎn)化為代碼的過程中,同樣也承載著人類文化中固有的偏見。算法的運行是一個自發(fā)、無意識、不完全可控的過程,算法在“輸入與輸出”的交互式運算過程中也會習得人類的劣習。以微軟開發(fā)聊天機器人Tay為例,它在投入使用不久之后,產(chǎn)生了反猶太人、種族歧視、性別歧視等不良思想。人工智能介入司法同樣以“輸入與輸出”的運算模式為主,也容易導致法偏見與不公。
更進一步,算法具有專業(yè)性和不透明性的特點,算法歧視所帶來的司法不公難以矯正。當犯罪嫌疑人將存在偏見的再犯風險評估結(jié)果訴諸法院時,Northpointe公司也會以算法是商業(yè)秘密作為抗辯理由,法官的審查可能受到限制[18]。而且大多數(shù)法官不具備審查算法客觀性的能力,沿襲以往的經(jīng)驗積累,更容易認為算法是一種客觀中立的科學表達或者是數(shù)字表現(xiàn)形式,否定算法決策存在法律意義上的價值判斷,算法的正當性、客觀性也不會被審查。隨著法官一次次參照適用算法決策結(jié)果,算法歧視更難以被發(fā)現(xiàn),長此以往算法會更加偏離司法公正的方向。
三、人工智能介入司法的展望
。ㄒ唬┍U先斯ぶ悄鼙尘跋路ü俚淖杂刹昧繖
無論法官審判的主導地位是否能夠被人工智能取代,只要法官由于司法惰性選擇適用人工智能的司法裁量結(jié)果,人工智能都已經(jīng)對法官的自由心證造成了實質(zhì)性干擾。在這個語境之下,保障法官自由裁量權才變得有意義。
首先,法律應當將人工智能裁量結(jié)果作為“參考”依據(jù)!皡⒖肌卑凳驹诰唧w案件中法官如果采納人工智能的裁量結(jié)果作為裁判依據(jù)之一,必須論證該裁量結(jié)果的正當性。法官必須承擔相應的說理義務,理由一旦遭到反駁或者質(zhì)疑,法官也要承擔相應的法律責任。從法律形式主義出發(fā),人工智能裁量結(jié)論可能代表著極端法律形式主義[17],法官可能會變成“法律的自動售貨機”。法官機械化地適用法律,可以規(guī)避創(chuàng)造性適用法律過程中所產(chǎn)生的不必要的說理責任,F(xiàn)代法官的評價管理制度,將上訪率和上訴率作為考核法官的重要指標,法官創(chuàng)造性地適用法律要比機械性地司法承擔更多不可預測的上訪風險[22]。法官為了個人的職業(yè)前途會選擇相對安全保守的裁判方式,規(guī)避風險。闡述說理義務的規(guī)定就是為了防止法官機械地適用人工智能裁量結(jié)果。
其次,防止上下級法院監(jiān)督的異化,讓法院的獨立審判流于形式。人工智能介入司法可以提高司法行政管理的效率,便于上下級法院的監(jiān)督[6]。當?shù)胤剿痉ㄐ姓芾硐到y(tǒng)接入全國系統(tǒng)時,上級法院法官點擊鼠標即可完成電子案卷、庭審視頻的傳送,對下級法院的司法監(jiān)督變得輕而易舉。上級法院掌握了司法監(jiān)督的絕對主動權,遠程監(jiān)督可能使庭審變成法官的個人表演秀,使法官庭審流于形式。為防止形式化審判,上級法院的監(jiān)督范圍和監(jiān)督權限不能逾越法院獨立審判原則的限制。
(二)發(fā)揮公私合作研發(fā)的優(yōu)勢,防止法院產(chǎn)生技術依賴
公私合作可能會降低司法公信力,原因在于法院的權威性源自公民授權、憲法和法律的擬制同意。當人工智能司法裁量結(jié)果的正當性存在困境時,人工智能是否可以視為是公民擬制同意的結(jié)果呢?公私合作研發(fā)的法律專家系統(tǒng)中的算法可能既包括了法院的意志又包括技術研發(fā)商的個人意志。個人意志如果超過了擬制同意的范圍,那么人工智能司法裁量的正當性則需要法律原則來彌補。法律原則可以通過內(nèi)部證成解決人工智能裁量正當性不足的問題,當徒法不足以自行之時,則需要通過外部證成的方式加以彌補。同時,法院應該提高自身的研發(fā)能力,掌握數(shù)據(jù)的主控權。技術外包可能對司法公信力產(chǎn)生威脅,現(xiàn)行立法并未在算法設立與數(shù)據(jù)保全之間作明確劃分,我國私人公司在算法設計和數(shù)據(jù)儲存方面都兼具優(yōu)勢,法院掌握數(shù)據(jù)主動權的方式就是增強法院的數(shù)據(jù)收集、整理和存儲方面的能力,擺脫對私人企業(yè)數(shù)據(jù)保密技術的過度依賴。然而,互聯(lián)網(wǎng)的傳播速度和廣度增加了數(shù)據(jù)的泄密風險,傳播的次數(shù)與泄密風險成正比關系,法院還應減少原始數(shù)據(jù)的傳播次數(shù),防止數(shù)據(jù)泄露。法院與技術開發(fā)商簽訂合同時,須增加數(shù)據(jù)安全保障義務條款,建立數(shù)據(jù)等級保護體系。
(三)完善技術公平規(guī)則和算法司法審查原則
算法歧視分為兩種,一種是算法設計者主觀意識導致的歧視,一種為算法后天習得導致的歧視。這兩種算法歧視的規(guī)避路徑包括正當程序、算法司法審查和第三方評估。
第一,法律代碼化后的算法理應遵守正當程序原則。正當程序原則的模糊性和包容性決定正當程序無法精準化、具體化和量化。人工智能評估系統(tǒng)無法衡量一個智能化量刑系統(tǒng)的算法是否遵守正當程序原則。智能化的量刑系統(tǒng)建立在個人裁決和規(guī)制制定之上,而法官更相信算法完美無漏洞,這會導致智能量刑系統(tǒng)、司法裁量系統(tǒng)侵害正當程序原則[23]。因此,需要設定技術規(guī)則增強算法的透明性、可問責性和明確性,避免算法侵蝕司法公正。
第二,進一步明確算法的司法審查范圍。算法歧視分為“顯性”和“隱性”,遵循階段性審查的原則。第一步為初步審查,審查是否存在顯性的算法歧視,第二步為實質(zhì)性的算法司法審查。因為算法審查成本可能比算法設計成本更加高昂[23],為了避免司法資源的浪費,分階段的算法司法審查可能更容易被法院采納。在EricL.Loomis案中,被告以COMPAS系統(tǒng)存在歧視為由提起上訴[24],由于算法是商業(yè)秘密的重要組成部分,法院無法做到徹底的、完全的、實質(zhì)性的司法審查,只有加利福尼亞管教和康復局提供證據(jù)證明COMPAS系統(tǒng)存在顯性算法歧視,才能進行實質(zhì)性的司法審查。第三,建立算法司法審查第三方評估制度。目前浙江省瑞安市法院引進了第三方評估機構(gòu),由第三方電子證據(jù)保全公司保存和校驗庭審錄音錄像的完整性[25]。算法司法審查有兩種路徑,一種是由第三方評估機構(gòu)承擔實質(zhì)性審查任務;另一種是由法院承擔實質(zhì)性司法審查任務。前者更加適合缺乏技術人才的法院,但受到數(shù)據(jù)安全、司法不作為等質(zhì)疑;后者更加適合擁有技術人才的法院,但存在增加司法成本等問題?紤]到目前法院缺乏技術人才的現(xiàn)實情況,大多數(shù)法院會選擇第一種方案。本文原載《湖南學院學報》2019年2期