人工智能(ArtificialIntelligence,AI),它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。〔1〕 在國外,人工智能系統不僅在醫學、圍棋領域取得了驕人的成果,更開始逐步進入司法領域從事司法工作。2015年,美國的ROSSIntelligence公司率先推出了人工智能律師ROSS,提供24小時網絡在線法律咨詢服務。2016年,英國倫敦大學學院、謝菲爾德大學和美國賓州大學的科學家組成研究小組開發了人工智能審判預測程序,已經實現了對審訊結果的預測,準確率達到79%。2017年7月,國務院發布《新一代人工智能發展規劃》(以下簡稱《規劃》)將發展人工智能建設提升至國家戰略。我國司法機關也對此作出了積極回應。最高人民法院、最高人民檢察院相繼發文表示將加快人工智能在司法領域的建設。全國各級司法機關也陸續推出了自己的人工智能辦案系統。例如北京市法院的“睿法官”、北京市檢察院的“檢立方”、上海市法院的“上海刑事案件智能輔助辦案系統”、江蘇省檢察院的“案管機器人”等。在這些人工智能辦案系統的協助下,司法工作的效率和質量大大提高。但是我們也應當意識到,人工智能為我國司法機關提供便利的同時,也帶來了新的問題。例如,人工智能輔助定位與全面發展如何平衡?如何避免人工智能建設陷入“法定證據制度”誤區?如何防范司法數據造假與智能算法的暗箱操作?人工智能工作失誤責任如何承擔?司法數據庫是否符合人工智能建設需求?等等。這些新挑戰都急需相應的完善措施予以應對。筆者將對此展開討論。
一、我國司法機關人工智能建設面臨的新問題
自國務院印發《規劃》以來,我國司法機關人工智能的建設已經取得了階段性的戰略成果。人工智能辦案系統已經實現了司法文書、電子卷宗自動生成,證據校驗、審查判斷自動提醒、類案智能檢索等便利的功能。但是司法人工智能的建設依然要面對一些新的問題。
(一)人工智能輔助定位與全面發展如何平衡
人工智能在司法工作應當處于何種地位?扮演何種角色?我國理論界與實踐界普遍認為,人工智能是司法工作者的重要輔助力量,但不能完全取代司法工作者。司法機關如果讓人工智能超出輔助性手段的范疇而全面應用于審判案件,甚至在很大程度上取代法官的判斷,那就很有可能把司法權引入歧途。因為在案件事實曲折、人際關系復雜、摻雜人性和感情因素的場合,如何根據法理、常識以及對細微的洞察作出判斷并拿捏分寸進行妥善處理其實是一種微妙的藝術,不得不訴諸適格法官的自由心證和睿智,即使人工智能嵌入了概率程序,具有深度學習能力也很難作出公正合理、穩當熨帖、讓人心悅誠服的個案判斷。〔2〕 但是,一味避免讓人工智能全面應用于司法工作,又會與《規劃》要求相違背,并大大限制人工智能處理司法工作的潛力。《規劃》對智慧法庭的建設要求是:建設集審判、人員、數據應用、司法公開和動態監控于一體的智慧法庭數據平臺,促進人工智能在證據收集、案例分析、法律文件閱讀與分析中的應用,實現法院審判體系和審判能力智能化。最高人民法院院長周強在全國法院第四次信息化工作會議上強調: “以是否達到‘全業務、全流程、全方位’作為評價智慧法院的基本標準和主要依據。”〔3〕 這都說明智慧法院的建設必須將人工智能全面應用于司法工作。這就會給司法機關人工智能建設造成困擾,如何在保證人工智能輔助地位的同時又能使人工智能符合《規劃》的要求全面參與司法工作?實踐中,多數司法機關的做法是將輔助辦案系統“有限智能化”,〔4〕即犧牲人工智能的判斷、決策能力來保證人工智能的輔助地位,以便全面參與各種司法工作。這種“有限智能化”會導致我國司法機關的人工智能建設停留在智能搜索、智能對比、智能識別等“弱人工智能”層面,無法成為能對司法工作進行綜合性、整體性預判的“強人工智能”。《規劃》的戰略目標指出: “到2030年人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心”, “有限智能化”的建設方式將會嚴重拖累司法機關人工智能趕超國外同行的步伐,無法實現達到世界領先水平的目標。
(二)人工智能建設易陷入“法定證據制度”誤區
人工智能協助司法機關工作的優勢之一就是可以依照統一的證據標準運用證據。通過將法定的統一證據標準嵌入到公、檢、法三機關的數據化刑事辦案系統中,并且連通了公、檢、法三機關的辦案平臺。這將極大地促進公檢法三機關辦案人員執行統一的證據標準, “倒逼”偵查、審查起訴、審判各個訴訟環節嚴格按照法律的規定辦理刑事案件,把刑事訴訟的各項制度落實到每個辦案環節中,確保偵查、審查起訴的案件事實證據經得起法律檢驗,有效解決刑事訴訟中適用證據標準不統一、辦案程序不規范等問題。〔5〕 但如果證據運用的指引標準設定不當就會使人工智能建設陷入法定證據制度的誤區。在歐洲中世紀之后,由于包含單方神意裁判、雙方神意裁判(司法決斗)及宣誓滌罪等“非理性”因素的宗教證據為所有歐洲國家摒棄,以發揮法官理性智識為核心的理性證據制度開始盛行。其中,由于羅馬教會證據制度在刑事證據立法上確立了十分精確的證明力等級體系,詳細規定了每種證據形式的可采性、不同種類證據在訴訟中的證明力以及證據間出現證明力沖突時的優先取舍問題。近代學者又將羅馬教會刑事證據制度概稱為“法定證據制度”。〔6〕“法定證據制度”要求每一種證據的證明價值都是由法律明文確定的,而不是根據證據的實際情況來確定,法官沒有評判的自由,也不能根據其內心確信和良知意識作出認定。刑事案件只要存在那種符合法定證明力要求的證據,法官即應作出有罪判決。〔7〕 這是一種形而上學的證據制度,它限制了法官的理性,使他不能按自己的思維邏輯和信念來認定案件事實。它只能在訴訟中達到法律所要求的“形式真實”,而不可能真正查明案件事實。因此, “法定證據制度”又被稱為“形式證據制度”。人工智能對證據的運用與法定證據制度非常相似。任何法律專家系統軟件都意味著作出一種純粹的法律實證主義預設。計算機可以處理法律條文內容中的三段論推理以及關于“要件-效果”的條件式推理,也可以處理案例特征與數據庫檢索到的基礎案例特征之間的類似性并進行傾向性推理和判斷,但卻無法適當表現那些決定有效規范在適用上的優劣順序的元規則。〔8〕 諸如自然法、權利保障、天理人情、有教少誅重預防之類的思辨性要素都會被排除在人工智能的判斷標準之外。這就如同法定證據制度將法官的“自由心證”排除在證據判斷規則之外。人工智能判斷證據的指引標準設定如果只注意統一規范化,而忽視了證據判斷所需要的經驗法則、邏輯規則和理性良心等思辨性要素。人工智能對證據的判斷必然會走入法定證據制度的誤區而無法實現實質上的司法公正。
(三)數據真實性缺乏保障,算法“暗箱”缺乏監督
人工智能發展的基石是算法與數據,建立并完善圍繞算法和數據的治理體系與治理機制,是人工智能時代公共政策選擇的首要命題,也是應對治理挑戰、賦予算法和數據以主體性的必然要求。與司法工作者不同,人工智能對證據的審核與運用完全依托于電子數據。如果電子數據本身無法保證客觀、真實,那么人工智能所得出的判斷結果也不再具有參考價值。如何保障電子數據的真實性一直以來困擾著司法實踐。區別于傳統證據,電子數據的真實性不能依靠傳統方法來確定,而需要從數據信息的技術角度進行分析。目前,我國司法機關尚未針對電子數據的校驗技術出臺專門的規定。2016年《最高人民法院、最高人民檢察院、公安部關于辦理刑事案件收集提取和審查判斷電子數據若干問題的規定》(以下簡稱《電子數據若干問題的規定》)中雖對電子數據類證據的審查與判斷作出了較為詳細的規定,但是對具體采用何種技術手段審查數據的真實性沒有說明。隨著技術的不斷革新,電子數據的防偽和校驗技術不斷變化,司法工作者在面對日益增長的海量信息和不斷變化的技術時,難免力不從心。而實踐中又缺乏專門的技術團隊來確保數據的真實性,人工智能建設所依賴的數據隨時都面臨虛假的風險。除了數據本身的真實性難以得到有效保障外,人工智能運用分析數據的核心算法也可能存在暗箱操作的風險。人工智能的建設離不開核心算法的編輯,而司法機關本身對這些技術又不甚了解。實踐中,司法機關將核心算法的編輯任務大量外包,造成數據處理公司、電腦工程師對人工智能的影響超過了司法機關。不僅如此,由于司法機關本身不擅長人工智能核心算法的編輯,也就無法從技術層面上對數據處理公司、電腦工程師的編輯工作進行有效監督。這就給核心算法的暗箱操作留下了空間。一旦司法機關人工智能的核心算法被部分別有用心的技術開發者利用, “司法公正”就難免會被算法綁架,而司法機關卻因存在技術短板而對此無能為力。
(四)人工智能工作失誤的責任承擔主體不明
人工智能從事司法工作如果產生了錯誤,責任由誰承擔?這是司法機關人工智能建設必然會遇到的一個重要問題。依據各國的實踐來看,有些國家和地區對人工智能承擔法律責任的問題采取了較為超前的態度。例如,2017年10月沙特阿拉伯授予美國漢森機器人公司生產的機器人索菲亞公民身份。再如,2016年,歐洲議會向歐盟委員會提出報告,要求制定民事規范來限制機器人的生產和市場流通。其中第50(f)項建議: “從長遠來看要創設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格。”而多數國家采取了保守的做法,沒有對人工智能是否可以獨立承擔法律責任作出明確答復。目前,我國也沒有針對人工智能的責任承擔問題出臺專門的法律或解釋。盡管《規定》明確要求: “開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等。”但有關人工智能從事司法工作的失職責任如何承擔,理論界與實務界也未形成統一意見。人工智能失職責任的承擔問題直接與司法責任制密切相關。建立和完善司法責任制是司法改革的關鍵環節。黨的十八屆三中全會決定中指出,要“完善主審法官、合議庭辦案責任制,讓審理者裁判,由裁判者負責”。黨的十八屆四中全會決定進一步強調, “完善主審法官、合議庭、主任檢察官、主辦偵查員辦案責任制,落實誰辦案誰負責”, “實行辦案質量終身負責制和錯案責任倒查問責制”構建和完善司法責任制,是司法公正的重要保障,是權責統一原則的必然要求,也是中西方司法文明共同的經驗匯集。而人工智能的失誤責任承擔不明會對司法責任制的貫徹產生一定的困擾。責任主體不明確不但會造成過錯無人承擔,還可能造成過錯主體之間相互推卸責任,不利于維護司法責任制的貫徹與落實。
(五)對人工智能過度依賴可能破壞法治制度
人工智能的智能程度越高,越有利于其更好的完成司法機關交辦的任務。但過于完善的輔助功能又會致使被輔助者產生依賴。假若司法機關的人工智能可以實現證據自動調取、判決自動生成,司法工作者雖對人工智能的預判結果負有審核的義務,但在案件數量激增或辦案期限有限等壓力下,難以保證自身在長期的工作中不會對人工智能產生依賴。而隨著依賴程度的增長,司法工作者本身的辦案能力也會逐漸退化,最終成為人工智能“奴役”的對象。一旦這種現象普遍出現,司法工作的核心將被嚴重顛覆。人工智能的算法將成為司法工作的主導,司法數據庫也會成為案件審理的主要“場所”。司法工作者的“自由心證”在整個審判過程中無足輕重,法庭審理流于形式,法庭辯論、上訴審、專家酌情判斷的意義都會相對化,最終導致法官的物象化、司法權威的削弱、審判系統的解構,甚至徹底的法律虛無主義。〔9〕 更為嚴重的是,對人工智能的過度依賴可能導致現代法治的制度設計分崩離析,引起社會結構出現矛盾、混亂乃至失控的事態。司法工作者是連接國家公權力和公民私權利的紐帶,是代表司法機關維護司法公正和權威的直接行動者。為此,我國法治制度賦予了司法工作者獨立行使司法權而不為其他力量所干涉的特權,并在合法的前提下給予必要的職業保障。為了規范司法工作者嚴格行使司法權,我國司法制度還建立了最嚴格的遴選標準,確保司法工作者具備專業的學識和優秀的品格。同時,為了保證司法工作的公開、透明、公正,我國法治制度設立了嚴密的司法工作程序,防止無原則的妥協和暗箱操作。任何判決都必須經歷對抗性辯論和證明的洗禮,通過三審終審的形式,使案件審判經過充分的法律推理和審議,最終得出公正的判決。而對人工智能的過度依賴會打破這種合理的架構。司法工作者的核心作用將被人工智能所取代,嚴密的工作制度在算法綁架下失去作用。現代法治制度也會因為過度依賴人工智能而全面解構。
(六)司法數據庫無法滿足人工智能建設需求
數據庫建設是人工智能建設的基礎,任何一個人工智能的發展都離不開海量數據的輔助。如果將人工智能比喻成一個學習成長的兒童,數據庫就是供其學習的書籍。得益于當今信息采集技術的發展,數據收集的深度與廣度較幾十年前都有了巨大進步。正是憑借自身海量數據的優勢,谷歌公司成功超越了其他科技公司,成為美國人工智能行業的領頭羊。反觀我國的司法數據庫,其搜集的信息范圍與規模十分有限。以北京市檢察機關的“檢立方”大數據平臺為例,自2014年起該大數據平臺收集了案件信息60萬件,業務數據1.1億項,整合了四大資源數據庫和160個系統功能。但是該數據平臺僅僅是整合了北京市三級檢察院內部的案件信息和文書,沒有將其他司法機關的數據收納其中。上海市法院的“刑事案件智能輔助辦案系統”也只是建立了基于本市刑事法律文書、典型案例和司法信息資源的數據庫。〔10〕 而美國司法機關早在1930年就開始了建設統一刑事司法數據庫的準備工作。美國眾議院于1930年通過一項法案,授權聯邦調查局向全國地方警察局以自愿為前提,收集它們的犯罪記錄。這些資料隨后被匯編成《統一犯罪報告》(UCR)。在推進過程中,美國一直重視利用科技的力量。從2013年起,美國《統一犯罪報告》主管部門要求所有統計數據直接采用網上填報,并規定2013年7月之后,美國司法部管轄下的《統一犯罪報告》統計部門將不再接受任何紙質報表以及數據文檔。如今,美國的絕大部分刑事司法數據都保存在政治和社會研究校際聯盟中,為其他社會科學研究團體進行數據分析提供服務。相比較之下,我國司法機關數據庫的建設不僅起步較晚、缺乏統一的法律規范和管理主體,在信息范圍上也存在不足。這大大限制了人工智能系統的計算、分析能力,無法向更高的智能層次發展。
二、如何審視司法人工智能建設存在的問題?
德國著名社會學家,慕尼黑大學和倫敦政治經濟學院社會學教授烏爾里希·貝克曾經指出,任何新技術的運用在給人們帶來便利時,也可能帶來安全風險與挑戰。“那些生產風險或從中得益的人遲早會受到風險的報應。風險在它的擴散中展示了一種社會性的‘飛去來器效應’,即使是富裕和有權勢的人也不會逃脫它們。”〔11〕 但這并不是讓人們放棄新技術的使用,而是要理性的分析新技術的利弊,進一步提升控制風險的方法和標準。在面對人工智能建設產生的新問題時,我們如何進行審視,以便為進一步完善司法人工智能建設打下堅實的基礎。
(一)人工智能威脅論影響人工智能的全面應用
當人工智能技術開始普遍運用人們的生活之中并給人們帶來極大便利時,許多知名公眾人物卻開始擔憂這種革命性的新技術將會威脅人類的生存。其中著名物理學家斯蒂芬·霍金就是人工智能威脅論的支持者之一。霍金教授在2017年北京舉行的全球移動互聯網大會(GMIC)上,通過視頻表達自己對人工智能發展的擔憂。他認為基于“計算機在理論上可以模仿人類智能,然后超越”這一原則,人工智能從原始形態不斷發展,并被證明非常有用的同時也會導致最壞的結果:人工智能一旦脫離束縛,將以不斷加速的狀態重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。〔12〕 美國太空探索技術公司SpaceX創始人伊隆·馬斯克也表示“人工智能是人類有史以來最好也是最糟糕的發明”。馬斯克認為,人工智能不僅在將來會迫使大部分人失業,而且可能引發第三次世界大戰。人工智能的威脅遠超朝鮮核武器, “人工智能是關系人類文明存亡的最大威脅,這是汽車事故、飛機墜毀、濫用藥物或劣質食品都比不了的威脅”。〔13〕 上海交通大學科學史與科學文化研究院院長江曉原教授也對人工智能的運用發出警告。他認為,人工智能將引發大規模失業,加劇貧富分化,激化社會矛盾。人工智能在軍事領域的運用將會生產更高效率的殺人武器。從長遠來看,人工智能一旦脫離人類的控制,就有可能主導世界的控制權并消滅人類。因此,江曉原教授主張: “在某些領域中,可以考慮保留低級的人工智能,保留人工智能的某些初級應用。”必須限制人工智能在社會領域的全面運用,才能延長人類文明。〔14〕 正是在這些知名公眾人物的呼吁下,人工智能威脅論逐漸引起人們對人工智能的擔憂和抵制。也正是在這種觀念的影響下,我國部分司法機關選擇了“有限智能化”的建設方式來防止人工智能主導司法工作。
(二)感性思維的缺陷使人工智能無法全面勝任司法工作
當前,盡管人工智能技術發展迅猛,但仍處于不具備感性思維的低級階段。司法工作的特殊性決定了其不是單純依靠法律適用便能完成。以法官的審判工作為例。美國大法官霍姆斯有句名言: “法律的生命不在于邏輯,而在于經驗。對時代需要的感知,流行的道德和政治理論,對公共政策的直覺,不管你承認與否,甚至法官和他的同胞所共有的偏見對人們決定是否遵守規則所起的作用都遠遠大于三段論。”這說明,法官的審判工作決不能只依據法條,審判應當注重法律與道德、政治等多種因素融合。一件案件的公正審理不僅要遵從法律基本原則指導,還需要接受實質正義說的指引、接受傳統文化司法經驗與智慧的導引,受到利益衡量理論拘束與社會分配公正理論的規制。必須尊重民眾的樸素感情和道德訴求,反映社會的普遍正義觀念,才能避免案件裁判法律效果與民眾的樸素情感發生較大偏離,實現法律效果與社會效果的統一。〔15〕 這都需要法官依據感性思維作出綜合判斷,而人工智能尚無法通過算法重現人類的感性思維。感性思維之所以難以被算法所重現,關鍵在于它沒有明確的規則。區別于下棋、圖像識別等行為有一個大的框架以及非常細致的規則,感性思維的特點是有跳躍性,與邏輯思維是相互矛盾的。當人類在面對相同的事情時,如果場合不同或者時間不同就可能作出相反的應激反應,進而產生完全不同的應對行為。因為具備了感性思維,人類才不會被邏輯所禁錮。而人工智能是依靠邏輯算法堆積而具有強大的推理能力,在面對相同或相似的問題時,很難擺脫邏輯算法而形成不同的對策。因此,人工智能無法獨自面對錯綜復雜的利益沖突,它只能按照設定的程序選擇法律適用,而無法將技巧、經驗和平衡等隱形審判技藝有機結合,所形成的判斷結果也是千篇一律。任何一個案件的判決都是獨一無二的,因為它不僅包含了法律規范的適用,還要求法官結合大量實踐經驗、非法律知識和法理、常識、情理進行感性思維的處理和升華。即使讓人工智能掌握了所有的法律知識和邏輯規則,也無法取代法官的感性思維在公正審判中的作用。除了審判之外,司法工作中還有許多需要感性思維才能勝任的工作,例如調解、訊問、輿情處理等。而缺乏感性思維能力的人工智能無法勝任這些工作。因此,司法機關也無法讓人工智能全面負責司法工作。
(三)證據規則的“法定證據制度”特征易誤導人工智能建設陷入誤區
我國當前的證據規則具有“法定證據制度”特征,這主要體現自以下兩方面。
首先,我國的證據規則對不同證據的證明力進行區分。根據2001年最高法院發布的《關于民事訴訟證據的若干規定》第77條對數個證據對同一事實的證明力的強弱順序作出了區分,以指導法官對不同證據的適用順序。2010年6月,最高人民法院、最高人民檢察院、公安部、國家安全部、司法部聯合發布了《關于辦理死刑案件審查判斷證據若干問題的規定》(以下簡稱《辦理死刑案件證據規定》)和《關于辦理刑事案件排除非法證據若干問題的規定》,其中對于沒有直接證據證明犯罪事實但間接證據確實、充分的案件,雖然“可以認定被告人有罪”,但是“判處死刑應當特別慎重”。這體現出間接證據證明力低于直接證據的觀念。這種將不同證據的證明力明確規定了大小強弱的標準,并使之上升到法律規范的做法與法定證據制度將不同證據的證明力進行嚴格區分的做法具有一定的相似性。
其次,我國證據規則對法官的“自由心證”作出了明確限制。自由心證原則要求法律不得對于單個證據的證明力大小強弱以及法官對案件事實內心確信的標準作出限制性規定,而是由法官根據自己通過法庭審理所形成的直觀印象,根據經驗、理性和良心,來對證據的證明力和案件事實作出裁判。而我國現行證據規則沒有賦予法官完全的心證自由。這主要體現在“證據確實、充分”的標準之上。現行《刑事訴訟法》第53規定: “證據確實、充分”應當符合以下條件:定罪量刑的事實都有證據證明;據以定案的證據均經法定程序查證屬實;綜合全案證據,對所認定事實已排除合理懷疑。這種對證據標準的明確規定嚴格限制了法官“自由心證”的發揮。即便法官憑借自身的主觀印象對證據進行了內心確認,還必須依據訴訟法規定的客觀標準才能最終確定證據的證明力,這與歐洲中世紀盛行的法定證據制度有一些相似之處。比如德國《卡洛琳娜法典》就規定,被告人自白具有“全部證明力”,可以成為法官唯一的定罪根據;而一份證人證言只具有50%的證明力,法官只有根據兩份以上的證言,才能作出有罪裁決。〔16〕
“自由心證”是預防我國證據制度陷入法定證據制度誤區的重要保障。“自由心證”的理性基礎在于,它適應并反映了證據與事實之間即證明根據與證明目的之間邏輯關系的多樣性,反映了影響事實判定各種因素的復雜性,更重要的是,它充分尊重了人的理性能力,即作為個體的認識主體認識把握客觀事實的能力。〔17〕 盡管我國證據制度沒有完全采納自由心證證據制度,但是自由心證所提倡的直接原則和言辭辯論原則對我國訴訟制度中的人權保障影響巨大。它們要求法官在查證中,務必與被告或其他當事人、證人有過直接的接觸,而不可僅就文書卷宗之記錄,從事間接的采證工作。唯有當事人在法庭以言詞陳述所提供之訴訟資料,方能作為判決之依據。而當前,人工智能在分析證據數據時尚無法復制司法工作者的“自由心證”。一方面,司法工作者的“理性和良心”無法通過算法再現。“理性和良心”屬于人類的感性思維,而目前人工智能的算法還不能實現情感功能。另一方面,人工智能分析數據的模式并不依托于庭審與言證,不利于當事人訴訟權利和實體權利的保護。其相對封閉的數據分析模式與“卷宗主義”十分類似,不利于外部的有效監督。在缺乏“自由心證”功能的前提下,人工智能分析證據數據的唯一標準就是人類給其設定的證據適用規則。這種規則如果僅僅是照搬訴訟法中的證據制度,必然會只體現“法定證據制度”的特征。而缺乏“自由心證”矯正的人工智能極易陷入“法定證據制度”的誤區。
(四)司法數據庫建設與數據鑒真機制不完善
我國人工智能司法數據面臨的首要問題就是信息總量偏低。信息總量偏低現象產生的主要原因包括以下兩方面。一方面,司法機關內部的數據信息共享不暢通,數據資源利用率低。我國各級公安、檢察院、法院都有自己的數據庫,但這些數據庫出于保密原因,不能在各個司法機關之間隨意流轉。甚至在本單位內部,也不是每一個員工都能完全接觸到本單位內的所有數據。再加上考核評價指標設計不合理、缺乏集中處理機構和整合機制等原因,各地不同司法機關之間的數據共享普遍存在壁壘。由壁壘所產生的信息不對稱,導致各個司法機關不得不對相同案件進行反復調查,造成司法數據資源利用的極大浪費。另一方面,沒有與社會科研機構的數據庫開展合作。我國科研機構司法數據庫的建設始于20世紀80年代。北京大學于1985年創建涉外法規查詢系統,并發展為當今知名的中國法律信息檢索系統“北大法寶”。1993年武漢大學法學院趙廷光教授主持開發了實用刑法專家系統,具有檢索刑法知識和對刑事個案進行推理判斷的功能。曾經被一百多家法院、檢察院、律師事務所采用。〔18〕與司法機關的數據庫相比,這些知名科研機構的司法數據在建設時間、數據規范、通用性等方面都具備了優勢,且也被我國司法機關廣泛使用。但是在人工智能的建設過程中,司法機關卻未借助這些社會科研機構的數據庫來擴大司法數據庫的信息量,令人遺憾。
對于司法數據真實性的鑒定,目前比較通行的做法是依照《電子數據若干問題的規定》中有關電子數據的鑒真規則進行鑒定,但是這個鑒真規則本身并不完善。首先,電子數據的真實性鑒別依靠是各種筆錄證據和情況說明等間接方式,而不是對電子數據本身進行鑒別。如果電子數據本身的數據信息是虛假的,那么即便制作再多的筆錄,筆錄上有偵查人員、證據持有人、提供人、見證人的簽名或蓋章,也并不能保證電子數據的真實性。其次,對未能鑒真的電子證據,即不確定具有關聯性和形式真實性的電子證據,仍然允許通過“補正”“合理解釋”的方式進行補救。這就給本不能鑒真的電子證據留下了后門和隱患。〔19〕 而人工智能本身又缺乏對電子數據進行真偽辨別的能力,司法數據的真實性更加難以保障。
(五)人工智能的法律人格尚存爭議
人工智能工作失誤責任承擔不明的原因在于其獨立法律人格地位的不明確。如果各國政府都如同沙特阿拉伯政府一般賦予人工智能公民身份,那么其責任承擔便不會引起爭議。但多數國家并沒有賦予人工智能獨立的法律人格,于是人工智能侵權責任的承擔問題就成為學界爭論的焦點。圍繞著人工智能是否具有獨立的法律人格?學界存在多種意見。否定人工智能法律人格的學者認為,人工智能是人類為生產生活應用而創設的技術,其本質是為人類服務的工具;人工智能無獨立的意思表示能力,并不承認人工智能具有獨立的法律人格;人工智能不具有人類特殊的情感與肉體特征,在工作時無休息等現實需要,可以認作不知疲倦的機器,有行為能力但沒有權利能力;人工智能的所有行為均是為人類所控制,其作出的行為與引起的后果最終必須由被代理的主體承擔。〔20〕 而支持人工智能具備法律人格的學者則認為,人工智能的法律人格與法人相似,賦予人工智能法律主體資格能夠更好地拓展人類的社會能力,可能更好地服務社會、造福于人類。〔21〕 人工智能是人類社會發展到一定階段的必然產物,具有高度的智慧性與獨立的行為決策能力,其性質不同于傳統的工具或代理人。在現實條件下,將人工智能定義為具有智慧工具性質又可作出獨立意思表示的特殊主體較妥。〔22〕 還有學者認為,應當依據人工智能的不同種類來區分責任承擔的主體。如果違法人工智能屬于不具有辨認能力和控制能力的弱人工智能,其違法責任由人類承擔(如設計者、使用者)。如果人工智能可以有辨認能力和控制能力(既可能在設計和編制的程序范圍內進行獨立判斷并自主作出決策,實現設計者或使用者的意志;也有可能超出設計和編制的程序范圍,進行自主決策并實施相應行為,實現其自身的意志。)就具備承擔違法責任的可能。〔23〕 上述三種觀點都有一定的合理性,但是都不能妥善處理人工智能的責任承擔問題。首先,如果采用法律人格否定說的觀點,人工智能的失誤責任由與之關聯的人類承擔,那么具體是由使用者承擔、還是由設備制造者或軟件開發者承擔?三者間是否具有連帶責任?尚無法律說明。其次,如果采用法律人格否定說的觀點,人工智能的處罰又會出現盲區。我國現有的法律沒有專門針對人工智能這類特殊主體的懲罰方式。有學者建議采用數據封存、數據刪除的方法對人工智能進行類似“有期徒刑”、“死刑”的懲罰。〔24〕 但是這種懲罰方式是否能有效防止其他人工智能出現同樣的錯誤?尚無從得知。如果有效,是否應當對具有技術同源的同類人工智能也進行過預防性懲罰?如果無效,由人工智能承擔法律責任的意義何在?再者,即使將人工智能進行分類對待,弱人工智能的失誤責任由人類承擔,強人工智能的失誤責任由其自己承擔。同樣會面臨人類關聯主體不確定、人工智能處罰方式不明確的問題。因此,上述三種觀點均未得到我國學界的普遍認可,也未得到實務界的采納。司法機關人工智能工作失誤的責任承擔問題依然缺乏可行的參照。
三、推進我國司法人工智能建設的路徑
基于上述分析,司法機關應當進一步完善人工智能的建設,克服人工智能運用產生的困難,使其更好的為法治事業服務。
(一)通過立法確立司法工作者的終審原則和證據審核制度
“有限智能化”不是平衡人工智能輔助定位與全面發展的最優方案。人工智能的智能提升與其在司法工作中的輔助定位并不會產生必然矛盾。人工智能在司法領域的全面應用也不應過度理解為取代人類辦案。信息化和人工智能的初衷,是替代人的重復勞動,而非人本身。人工智能、移動互聯網和司法大數據作為主要技術元素的“智慧法院”,也絕非科幻文藝作品中想象的那樣以機器判斷替代人類司法。智慧法院的本質是審判體系和審判能力的現代化,其核心是人的智能現代化,而非以人工智能等技術替代人類智能。智能輔助辦案系統不是要取代線下刑事訴訟活動,也不是要替代司法人員獨立判斷,而是發揮人工智能在數據采集、整理、分析、綜合方面的優勢,幫助司法人員依法、全面、規范收集和審查證據,統一司法尺度,保障司法公正。〔25〕 司法機關在建設人工智能時無需產生人工智能取代人類的擔憂,也不必采取“有限智能化”的方式限制人工智能在司法領域的潛力。人工智能的司法輔助地位應當從立法角度予以固定,同時確立司法工作者的終審原則,將司法工作的最終決定權賦予司法工作者,而人工智能通過分析形成的判斷結果只能作為司法工作者實施最終決定權的參照。對此,司法機關可以參照我國醫療管理部門的做法。2017年2月14日,國家衛生計生委辦公廳發布了《人工智能輔助診斷技術管理規范(2017年版)》明確規定: “人工智能輔助診斷技術為輔助診斷和臨床決策支持系統,不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質的臨床醫師確定。”我國司法機關也可以通過制定規章的方式在司法工作制度中明確規定司法工作者的最終決定權。如此,既可以讓人工智能全面參與司法工作而不受“有限智能化”的約束向更高的智能層次發展,又能保證人工智能參與司法工作的輔助定位,是平衡人工智能發展和人類主導司法工作的可行方案。
通過建立司法工作者證據審核制度,將司法工作者的“自由心證”與之人工智能的證據審核相結合,是避免人工智能建設陷入法定證據制度誤區的有效途徑。鑒于當前人工智能的技術局限,人工智能本身尚無法通過算法來重現司法工作者的心證過程。那么就需要司法工作者予以協助。筆者建議在人工智能證據分析過程中設置司法工作者審核環節。人工智能系統將其搜集的所有證據進行證明力初步評估后,交由司法工作者進行審核。由司法工作者依據職業道德、邏輯推理和日常生活經驗等心證要素對人工智能的評估結果進行審查和修正。再將審核后的證據評估結果反饋給人工智能系統,由其繼續進行案件的整體預判工作。司法工作者在對人工智能的評估結果進行審查時,應當將修正的原因和依據用備注的形式記錄在人工智能的評估結果中。一方面有利于判斷理由的公開和監督;另一方面也有利于技術開發者進行參考對比,不斷改進人工智能的分析算法,減小判斷誤差,提升證據評估的準確性。只有通過司法工作者的心證協助,人工智能建設才能在現有的證據規則下避免“法定證據制度”的誤區。
(二)建立科學合理的鑒真規則保障司法數據庫的真實性
在國外,電子數據的鑒真主要通過三種方式進行。一種是基于計算機系統正常運行的推定鑒真。如加拿大《1998年統一電子證據法》第5條第1款規定: “在任何法律程序中,如果沒有相反的證據,則可以通過那些支持如下裁定的證據,推定記錄或存儲電子證據的那一電子記錄系統具有完整性,即:裁定該計算機系統或其他類似設備在所有關鍵時刻均處于正常運行狀態,或者,即便不處于正常運行狀態,但其不正常運行的事實并不影響電子記錄的完整性,并且沒有其他合理理由對該電子記錄系統的完整性產生懷疑。”另一種是基于電子簽名技術的鑒真。如菲律賓《2001年電子證據規則》規定,私人電子文件可通過曾經使用過的電子簽名方式予以鑒真(規則5第2條第1項);通過鑒真的電子簽名或數字簽名,具有等同于手寫簽名的同樣功能(規則6第1條)。還有一種是基于可靠程序和系統的鑒真。如美國《聯邦證據規則》901(a)(9)規定,證據提出者基于正當理由相信計算機程序是可靠的,并能提舉輸入數據及打印的程序合適等基礎證據,即滿足鑒真要求。〔26〕這三種方式都值得我國借鑒。此外,中國人民大學劉品新教授提出的電子證據印證體系規則的部分觀點也值得參考。劉品新教授認為,任何電子數據的生成都會形成一些附屬信息(如文檔的創建時間、修改時間、訪問時間、保存者、類型、格式等),還會同步留下一系列關聯痕跡(如WINDOWS系統的日志文件、休眠文件、頁面文件、刪除指針或數據存儲規律等)。無論哪一種情況,從理論上講都能找到相互印證的電子證據并構成體系。對于網絡空間的電子證據,通過將網絡上多臺電子設備視為不同的節點,從不同的節點中獲取到了電子證據,而且它們是相互印證的,那就滿足了印證的基本要求。
基于上述國外經驗和學者觀點,司法數據的鑒真規則應當以校驗電子數據的本身為主。一方面,司法數據的鑒真規則應當保證司法數據信息來源的真實性。司法數據信息來源既有傳統證據,又有電子數據。對傳統證據的檢驗可以依照傳統的檢驗方法進行。例如物理特征識別、多類證據互證等。而對于電子數據的印證則要堅持以技術驗證為主,通過電子簽名驗證、附屬信息印證、關聯痕跡印證、網絡節點印證的方式進行鑒別。傳統證據的驗證方法與電子技術驗證方法并非相互割裂。在面對司法數據多樣化的來源信息時,應當注重將傳統司法經驗與專門科學知識相融合,才能確保司法數據的原始真實性。另一方面,司法數據的鑒真規則要保證司法數據在使用過程中的真實性。這個步驟必須建立在保證司法數據原始真實性的基礎之上。由于司法數據生成之后,所有的信息都是以電子數據的形式呈現,因此其鑒定的方式也應以技術鑒定為主。司法機關應當在司法數據生成時對其進行電子簽名,并對附屬信息、關聯痕跡進行加密固定,同時將其備份至不同的網絡節點(機關內網)中,以便日后進行核對。如果遇到司法數據需要進行修改更新的情況,必須將變更的具體情況記錄在案,并對每一次更新的版本進行多節點備份和加密封存,以保證數據變更記錄的連續性和可查性,消除篡改的空間,確保司法數據的真實、完整。
(三)培養算法監督專員,規范算法制度,透明決策過程
司法人工智能的算法暗箱操作行為可能有以下幾種。第一,技術開發人員利用司法工作者尚無法深度掌握計算機算法技術的劣勢,故意在人工智能平臺的建設中暗藏系統后門、漏洞,并通過這些系統后門或漏洞操控人工智能的判斷結果,或者其他技術人員利用人工智能系統開發者的疏漏,通過系統本身的漏洞控制操控人工智能的判斷結果。第二,利用人工智能分析數據運行過程的不透明,暗中改變人工智能的算法規則,操控人工智能的判斷結果。第三,利用自身掌握算法技術的優勢,在對人工智能的判斷行為和判斷依據進行解釋時,以專業技術知識掩蓋非法目的,實現對人工智能判斷結果的操控。上述行為都是基于技術人員對人工智能算法技術的壟斷而產生。因此,算法暗箱操作的源頭就是算法技術壟斷。破除人工智能算法暗箱操作的最佳途徑就是打破算法技術的壟斷。2016年英國政府發布了人工智能報告《AI:未來決策的機遇與影響》。在這份報告中,英國政府對人工智能算法的安全與監督提出了一些建設性意見。首先,人工智能的算法需要制度化。依此可以保證人工智能按照既定的計算機算法運行,而不出現不必要的行為或者功能上的改變。同時還需將讓人工智能系統處于不間斷的人類監管干預之下,防止其脫離控制。其次,將算法的決策過程透明化。為了維護人工智能的公正與誠信,必須明確其使用了哪些算法、哪些參數、哪些數據,實現了什么目的,這樣才能確定人工智能技術是否被負責任地使用。〔27〕 英國政府的這些意見對打破算法技術的壟斷具有很強的實踐指導作用,但這些方法必須與掌握算法技術的監督者相結合,才能完全發揮應有的功效。因此,司法機關必須培養自己的人工智能監督人才,才能有效防止算法的暗箱操作。在此方面,我國部分知名政法院校已經走在了時代的前列。2017年12月、2018年1月,西南政法大學、北京大學先后成立了人工智能法學院,通過與科大訊飛、北大英華等人工智能公司以及最高人民檢察院檢察技術信息研究中心、最高人民法院信息中心等實踐部門合作,聯合培養復合型法治人才,為人工智能時代背景下的法治建設服務。司法機關可以通過借助人工智能法學院的力量培養自己的算法監督團隊,結合算法制度化、決策透明化,進一步鏟除算法暗箱操作的空間,確保人工智能從事司法工作的公開、公正。
(四)明確人工智能工作失誤的歸責制度
試圖以法律人格的有無來準確定位法律責任的歸屬,并不能妥善解決人工智能的擔責問題。于是,國外實務界另辟蹊徑,即將人工智能視為“產品”,以產品侵權責任的承擔方式來解決人工智能責任承擔的問題。例如,2015年,聯合國教科文組織與世界科學知識與技術倫理委員會的報告對智能機器的損害責任承擔問題進行了探討,并援引了阿薩羅提出的結論,即機器人以及機器人技術造成的傷害,很大一部分由民法中產生責任的相關法律調整,因為機器人一般被視為通常意義上的科技產品。從這個角度看,機器人造成的傷害很大一部分被歸責于機器人制造者和零售商的“過失” “產品警告的缺失”“沒有盡到合理的義務”。〔28〕 再如,2016年英國議會提出一份有關無人駕駛汽車法律責任問題的提案,對人工智能的責任承擔問題作出解答。該提案認為,應當將汽車強制險的適用擴大到產品責任,在駕駛者將汽車控制權完全交給自動駕駛汽車的智能系統時為他們提供保障。而這些駕駛者(或者投保人)需要依靠法院根據現行《消費者保護法》的產品責任和普通法下的過失原則的裁判,來確定哪一方應該對事故的發生負有責任。〔29〕
無論是依據獨立法律人格的有無確認責任歸屬,還是將人工智能侵權視為“產品”侵權,其責任承擔的方式都是依照過錯責任原則尋找侵權行為的主體,以便確認責任承擔的主體。但司法工作的失誤責任與一般的民事侵權行為不同,它損害了司法工作的公益性。司法工作不同于普通的民事行為,它以為保護人民群眾的公共利益為目標,不能只為單一個體服務,而是為全體社會成員服務。因此,人工智能司法工作失誤的責任承擔必須以保護公共利益為優先。對其失誤責任的承擔,應當適用過錯推定原則,由使用人工智能的司法工作者優先承擔。原因主要有以下兩個方面。一方面,司法工作者、軟件開發者和設備制造者雖都與人工智能有著密切關聯,但只有司法工作者與公共利益聯系最為緊密。如果司法工作者逃避責任,對公共利益的侵害也最直接。另一方面,司法工作者在使用人工智能時還負有監督審核的義務,一旦人工智能辦理的司法工作出現失誤,司法工作者有責任于第一時間進行矯正。適用過錯推定原則,由司法工作者優先承擔失誤責任可以有效督促司法工作者認真審核、監督人工智能的工作狀況,及時發現問題、及時改正失誤,有效防止因司法工作失誤危害社會公眾利益。同時又能防止人工智能的關聯主體之間相互推卸責任,影響司法工作的正常運行。因人工智能的司法工作失誤導致了損害結果,司法工作者如不能在第一時間證明工作失誤是由技術開發者或設備制造者造成,就必須先對人工智能的失誤承擔責任。之后可根據實際情況由司法機關向技術開發者或設備制造者進行追償。
(五)加強員工素質培養與考核監督,消除過度依賴的隱患
人工智能的智能水平高度發展,實現獨立、準確辦案,是司法工作者對人工智能產生過度依賴的原因與前提。那么,是否就可以簡單得出限制人工智能的智能或降低其準確率,就可以有效杜絕司法工作者對人工智能的過度依賴?或許結果符合,但就如同“有限智能化”一樣,這些方法與我國司法機關建設人工智能的初衷不符,也違背《規劃》的戰略目標。因此,通過劣化人工智能辦案水平,強迫司法工作者擺脫依賴的方法不可行。促使司法工作者擺脫過度依賴人工智能的有效路徑就是關注人類自身能力的培養,并建立長效的監督機制。首先,樹立正確的人工智能發展觀。國家大力發展人工智能的目的是為了幫助人們從低端、重復、僵化的機械式勞動中解放出來,給予人類更多的空間向更高的勞動層次發展。司法機關發展人工智能建設的目標也是將司法工作者從事務性、瑣碎性、巨量性、基礎性工作中解放出來,使其擁有更多的精力專注于斷罪、量刑等核心事務,依此來提高司法工作的效率和質量。司法機關必須幫助司法工作者清楚認識到國家人工智能發展戰略的前瞻性和科學性,排除“人工智能威脅論”的負面影響,促使司法工作者轉變思路,理性看待人工智能協助司法工作的社會趨勢,全力支持司法機關的人工智能建設,助力早日實現我國人工智能強國夢。其次,注重人工智能專業知識的普及,培養法律與人工智能的復合型人才。人工智能既是司法工作者的得力助手,也是競爭對手。司法工作者如不能順應時代需求,很可能面臨被人工智能淘汰的命運。司法機關應當為司法工作者提供學習人工智能專業知識的機會,幫助其充分掌握人工智能的核心技術,認清人工智能的優勢和缺陷,并據此進行有針對性的業務訓練,才能做到“知己知彼百戰不殆”。再者,建立與人工智能工作失誤歸責制度配套的監督考核機制。遵循司法工作者優先承擔責任原則,建立長效的工作考核制度,督促司法工作者認真履行最終決定權和監督義務,防止司法工作者在長期的工作實踐中怠于履行職責、過度依賴人工智能。
(六)構建統一的現代化司法數據庫
2016年,時任中央政法委書記孟建柱同志在全國政法隊伍建設工作會議上強調: “將探索建立跨部門的網上執法辦案平臺,形成網絡互聯互通、資源共享的執法司法信息化綜合系統。實現立案、流轉、辦理、審核、法律適用、生成文書和監督、考評一體化的全流程、信息化管理。”〔30〕這就要求司法機關在數據庫建設上必須打破傳統,實現跨區域、跨部門的統一司法數據庫建設。統一司法數據庫的建設不僅能滿足我國司法機關人工智能建設的需要,還能滿足公眾、學界對國家司法運行狀況知情,便于各級黨政機關及時、準確、有效的掌握司法信息,以此來制定出科學、合理、有效的司法決策,推進法治中國實現。因此,解決我國司法機關數據庫信息量不足的有效途徑就是構建現代化的統一司法數據庫。
首先,制定法規,打破司法機關內部的信息壁壘,實現司法數據共享。單從技術角度來看,司法機關之間的數據具有互通性,共享障礙較少。實踐中,司法機構內部已經搭建了內部局域網,實現了辦公的網絡化和數據化。只要將司法機關之間的內網互聯,便能實現信息共享。然而,司法機關之間的信息互通僅靠消除技術障礙難以實現,還必須有法律規范予以保障。例如,司法數據的統計口徑和范圍、數據的來源渠道和采集方式、每項數據含義和計算標準等都需要統一、明確的操作流程規范來指導。只有建立統一法律規范,才能使司法機關的信息共享有法可依,有效破除全國范圍內的司法數據壁壘。
其次,從政治體制架構方面考慮,構建現代化的統一司法數據庫還需要一個適合對各司法機關進行統籌引導的部門牽頭。全國人大法律委員會或中央政法委比較適合擔當這個角色。一方面,這兩個機構都有某種程度上的協調、監督職責;另一方面,由人大法律委員會或者政法委牽頭可以保障運營經費投入到位。
再者,建立與科研機構司法數據庫的共享機制。在不違反國家保密法的前提下,可以將除涉及國家秘密、商業秘密和個人隱私之外的司法數據與科研機構進行共享。一方面,可以利用科研機構司法數據庫的先發優勢,將司法機關人工智能建設之前的司法數據進行補全;另一方面,可以充分利用科研機構的決策智囊或者社會智庫的服務功能對司法數據進行研究分析,以便司法機關在人工智能的建設中進行參考。
結 語
人工智能進入我國司法機關協助司法人員辦案,為公眾提供法律服務,是社會發展的必然趨勢。我們應當充分重視人工智能在司法機關中的發展與應用,及時發現我國司法人工智能系統建設面臨的新問題,積極借鑒國內外人工智能發展的先進技術與理念,彌補我國司法機關人工智能建設的不足,不斷改進、不斷完善,努力建設讓人民群眾滿意、具有世界領先水平的司法人工智能系統。本文原載《東方法學》2018 年(3)