竞彩玩法及中奖规则/足总杯在线直播/欧洲杯2021赛程/内蒙古中优足球俱乐部

 
本站首頁 關于我們 法律圖書館與法律信息研究會 法律信息研究 中外法律圖書館 法學文獻與檢索 政府信息公開 法律圖書館導航 法律法學網導航
法律信息資源
法律信息服務
數字信息檢索
數字技術發展
專業網站建設
澳門法律信息
  當前位置:首頁 > 法律信息研究 > 法律信息資源
法律信息資源
暫無下載資料

 智慧司法的難題及其破解
            馬靖云 點擊量:3963
南京大學法學院
【摘要】
技術的迅猛發展沖擊了司法,也重塑了司法活動,智慧司法時代已然來臨。但技術有其原生性缺陷,因此智能技術的司法應用也就不可避免地具有局限性,比如概率建模下的司法要素限縮、裁決算法的價值偏見、裁決算法黑箱。這些局限性導致智慧司法在顯示其超強功效的同時也面臨著現實難題:技術與司法耦合的難度(數據采樣的模糊性、司法要素提取的高難性)、智慧司法的風險(算法決策下的機械司法、司法過程中的“數據鴻溝”、技術司法應用的邊界。破解這些難題的路徑是基于私權利保護的理念,從設置算法的論證程序、嵌入案件糾補機制、確立算法解釋規則、限定技術應用空間及構建司法商談機制等多個程序入手,促使智慧司法健康發展。
【關鍵字】
司法要素限縮 算法黑箱 機械司法 數據鴻溝 司法商談機制
    

  一、智能技術司法應用的局限性

  智能技術在司法領域的應用,為司法活動帶來重大發展與創新的同時,也顯現出一定的局限性,這導致智慧司法從源頭開始就不可能盡善盡美。

  (一)概率建模下的司法要素限縮

  司法智能化其實就是對既有的司法裁判進行概率建模,歸納出能夠體現同類案件處理的共性與標準的司法要素,輔助法官辦案。“司法裁判并非單向度的推理,它在本質上是一種向著普遍實踐論證開放的復雜活動,即向著道德、倫理和實用性理由開放。”〔2〕而智能技術是無法涵攝復雜的司法裁判的全部過程和全部信息,概率建模使得司法裁判在信息化、智能化的操作之下簡單化、扁平化,導致潛在的“司法要素限縮”。這是由幾方面原因造成的:首先,概率建模需要從相對標準化的司法文書中提煉共性,進而確定類案同判的統一標準。但是,在司法實踐中,真正意義上的標準化司法文書是有限的,不同層級、不同地域、不同法院、不同法官所制作的司法文書往往各不相同,導致司法文書并不能真實反映司法裁判規則與裁判經驗。其次,司法裁判是一個相當復雜的集合體系,不僅涉及司法過程中的案件事實、法律規范的點狀集合,而且涉及政策、經濟、倫理和道德等方方面面的多維度的要素集合,這些要素往往以一種“只可意會不可言傳”的形式滲透于司法裁判中,影響到法官的主觀判斷及最終的司法裁決結果,這也會造成概率建模對于案件的情境信息和隱藏信息的涵攝不足。最后,司法要素之間還存在復雜的組合方式,關于司法要素如何篩選、位階順序如何劃分,以及權重比例如何分配,并不是僅靠單純的數據累加或簡單的因果邏輯就能夠完成的,它們需要人類的理性與感性的結合來作出主觀判斷。這需要法律專業人士先將相關領域的知識匯總、梳理,進行信息化描述,構建成精細的法律知識圖譜喂養計算機。顯然,當前我們在這一層面的工作是極度欠缺的。

  既然司法要素是被限縮的,那么智能化輔助系統就不可能實現在充分的數據整理、類分與解析基礎上進行有效知識圖譜建構與情景模型訓練,會消減其在司法裁判過程中的價值。

  (二)裁決算法的價值偏見

  司法活動是一種法律治理手段,遵循的是社會共識的邏輯,而技術治理遵循的是自我偏好的邏輯。“價值觀和欲望會影響我們的選擇,包括我們選擇去搜集的數據和我們要問的問題。而模型(算法)正是利用數學工具包裝出來的各種主要觀點。”〔3〕裁決算法的價值偏見存在以下幾種情形:第一,算法賴以運行的數據庫、分析參數及預測模型等都是由工程師、程序員完成的,而這一過程缺少必要的檢驗和價值權衡。因此,當工程師、程序員將其內心的偏見與價值觀貫穿于程序設計中時,算法決策也會存在價值偏見。呈現在司法人員面前的,可能是已經被算法固化的偏見性數據。第二,從人類趨利避害的本性來說,在多種算法可以選擇的情況下,智能服務商一定是傾向于選擇更有利于自身利益的算法,以便更好地控制智能算法系統,維護其后期經濟利益。并且,出于對私利的考慮,智能服務商也有可能在明知算法存有漏洞而可能導致偏見的情況下,仍然將其作為合格產品交付司法機關使用。第三,裁決算法是在用過去預測未來,它所依賴的是已有的案例數據。社會生活是紛繁復雜的,新的行為模式、新的商業生態、新的生活觀念、新的司法問題不斷涌現,但是裁決算法基于其“機器”的本質,沒有生活經驗及感性思維的固有缺陷,無法做出準確的應變,舊的裁決算法在適用新的案件事實時就可能產生價值偏見。第四,基于數據不統一、不完善造成的算法偏見。中國經濟發展不均衡導致了互聯網覆蓋的嚴重不均衡,這就直接造成了數據信息的不統一、不完善。經濟發展落后的地區因為互聯網應用有限,相關案件資料不完善,且同類事實與經濟發達地區的司法裁決結果也會有明顯差異。不全面的數據必然會導致裁決算法的偏頗、適用于特殊地域顯現出不合理性。

  由此,當智能系統執行裁決算法時,所獲得的有關權利義務分配、法律責任分擔等決策結果,可能在形式上符合程序正義的要求,但在實質上與法律原則、價值等精神內核完全相左。

  (三)裁決算法黑箱

  智慧司法備受質疑的一點就是裁決算法不能透明化的問題。通過裁決算法分析得出的結論,如何給予當事人和律師相應的知情權及進行抗辯的權利,使當事人及其律師能夠清楚司法角色所認可的裁決算法的邏輯并有針對性地發表抗辯意見,是程序正義和實體正義的共同要求。但是,現實的情況是,裁決算法的透明化存在著很大的局限性,一是因為智能服務商基于商業秘密的保護,不愿意對外公開裁決算法的內在邏輯、源代碼;二是基于現有的專業技術水平,智能服務商很難將算法的內在邏輯、源代碼充分轉化成自然語言或可視化技術直接向當事人和律師公開。這就造成了“裁決算法黑箱”的存在,當事人及其律師只能看到算法的決策結果,卻無從知曉算法決策的程序和邏輯。裁決算法黑箱直接限制了當事人的知情權和抗辯權,很顯然,這是對司法正義的嚴重悖離。

  司法唯有在陽光下運行才有可能避免司法腐敗及司法恣意,司法正義只有看得見才可以獲得當事人和社會公眾的尊重與信服。因此,裁決算法黑箱的存在,必然會影響智慧司法的公信力和權威。

  二、智慧司法的現實難題

  智慧司法基于智能技術在司法應用中的局限性,也會面臨諸多現實難題:技術與司法耦合的難度、智慧司法的風險。

  (一)技術與司法耦合的難度

  1.數據采樣的有限性

  “數據的可靠性,須以真實、完整、有用為基礎,也即足以反映司法規律、契合辦案需求、具有實現形式正義與實質正義相統一的效果。如此,才能符合人工智能對數據的基本要求。”〔4〕

  司法智能的開發與模型的建立依賴于司法數據的充分與全面,存在海量的司法數據是必要前提之一。“目前,我國司法領域人工智能技術開發的數據基本來源于中國裁判文書網上的裁判文書。但中國裁判文書網是2014年才開始正式啟用的,上網的裁判文書數量可能只有審結案件的50%。”〔5〕這就造成了司法大數據的來源不足,因為絕大多數的法院并沒有設置專門的機構和專業的人才匯總司法裁判文書,導致司法系統內部仍然隱藏著大量的司法裁決文書并沒有被轉化成數據信息。而且,這些被公開的司法裁決文書也存在部分制作錯誤、不規范而不能被有效利用的情況。

  關于司法文書的公開范疇也是有限的。目前僅有司法裁判文書、庭審筆錄等被納入數據庫中,還有大量的司法相關文件并沒有被列入公開范疇,例如審判委員會的會議紀要、合議庭會議記錄、法院的審結報告等。但這些文件往往直接體現了司法角色的法律思維和邏輯判斷,對于司法角色如何定罪量刑、如何達到裁判結論的法律邏輯和考量都有深入的剖析,是司法裁判不可或缺的參數要素。

  關于法律規范的公開范疇同樣也是有限的。除了法律、法規、司法解釋等,實踐中存在大量的會議紀要、政策文件、行業規則等司法角色作出裁決的重要依據,目前沒有被列入大數據采樣范疇。數據采樣的有限性還有一個原因是基于案例規則的流動性造成的。在司法實踐中,案例規則的位階順序并不是一成不變的,有的會升格為更高位階的規則,有的會轉化為位階相同的規則。被升格或轉化后的案例規則,必然會對原有的司法數據組成、司法建模造成一定的影響。

  2.司法要素抽取的高難性

  智慧司法的“大數據中心”,是通過對司法要素的抽取,轉化成數據信息,構建成司法系統內部的數據資源庫和知識資源體系。但是,司法要素的抽取具有現實的高難性,技術語言如何與法律語言高度銜接,如何把司法要素抽取出來轉變成機器可以識別的數字代碼,是現實需要解決的問題。

  第一,人工智能系統并沒有深度思考法律語言的特性對于智能技術的特殊要求。舉例來說,自然語言識別技術(NLP)就無法完全適應司法領域的需求。法律語言與普通的自然語言的含義有所差異,基于概括性、準確性的目標訴求,它通常是用一種模糊的方式定義和描述人類的行為。如果不將這些模糊的法律語言轉化成規范的技術語言--數字代碼,以數字化結構且可識別的數據形式逐一“喂”給計算機,以便機器識別和處理,那么就無法實現真正意義的人工智能司法決策。

  第二,目前的人工智能在對不確定性和模糊性的素材處理方面也是有技術壁壘的。以206的證據規則校驗功能來說,目前的人工智能對手寫體、簽名捺印的識別率不高,對于圖片的辨析度不夠,僅能夠識別數量,而無法識別同類圖片。

  第三,另一亟待解決的技術難題是人工智能“目前主要以邏輯學加持,而非數學加持,這種基于邏輯學驅動的法律AI研究缺乏實踐操作性,而真正的法律AI應用需要用數學計算這一硅基本質的方式來解決法律具象問題,而實現這一點目前還相距甚遠”。〔6〕

  第四,就司法實踐而言,除了顯性的司法要素之外,還有一些隱性的司法要素,對于隱性司法要素的抽取更是難上加難。“法官的某些價值取向、主觀偏好、司法潛見、偏見、實踐經驗,甚至性別、年齡、學歷、個性等事實上也與案件處理結果有關。而對這些信息的收集、整理,再強大的人工智能也尚需時日,至少不大可能從現有判決書中抓取出來。”〔7〕

  第五,公檢法數據庫能否有效銜接所引發的司法要素的統一性問題。公檢法基于其職業角色不同,邏輯思維不同,必然導致其數據系統存在不同的設計理念。不同的設計理念就意味著不同的司法要素產生,如何進行有效整合與銜接,為司法裁判所用,這也是智慧司法需要解決的技術與理念問題。如果不能將所有必要的司法要素抽取出來并轉化成數字代碼,則必然意味著大數據、算法的基礎是不可靠的、不精確的。

  (二)智慧司法的風險

  智能技術在提高司法角色的決策能力、司法決策的精確性的同時,也裹挾著巨大的風險,這些風險很可能會沖擊司法權運行的根基,影響社會公眾對于智慧司法的接受與信服。

  1.算法決策下的機械司法

  據研究,算法的自動化決策系統能夠以微妙而有效的方式塑造使用者的感受和行為,破壞個人的獨立判斷力。“有時即便存在系統不準確的證據,算法控制者仍然會相信這一自動決策系統生成的評估結論。”〔8〕因為,“我們中的大多數人都是‘認知的吝嗇者'--多愿選擇只需付出最小認知努力的路徑甚或選擇相信直覺而放棄對每項決策進行系統分析。”〔9〕在大量的數據面前,司法人員容易對算法決策結論產生盲目迷信,如傳統司法對于鑒定結論的盲目信賴一般,從而導致司法人員的能動性法律判斷的弱化。一是因為人類天生的“懈怠”心理,司法人員不愿意花費時間、精力對算法決策結論再進行充分的反思與檢驗;二是“推卸責任”心理,基于算法決策作出的判斷與決策更容易減少司法人員自己承擔責任的風險性,因此司法人員更傾向于對算法決策采取“順水推舟”的策略;三是技術專業知識不足,導致司法人員不能或很難發現算法決策的隱性紕漏。

  對于算法決策的盲信和盲從,就會導致“機械司法”。司法裁判中的事實認定,其實是人類的先天知性能力對于外在世界“雜多”的“統合”問題。而人工智能沒有親歷社會的變革過程,僅憑部分數據與算法規則是無法與人在復雜的社會關系中、社會變遷中形成的知性能力相比的。具體的法律適用都是與語境連在一起的,離開語境因素,規則判斷就會變得僵化,必然會導致“機械司法”。

  2.司法過程中的“數據鴻溝”

  數字信息鴻溝是大數據領域內的一種“貧富差距”的體現,“是指在信息社會中,不同國家、地區、行業的人群由于對社會信息資源占有和使用程度的不同而造成的’信息落差‘和’知識分隔‘。”〔10〕數字信息鴻溝其實就是數據鴻溝,它可能會導致社會的進一步撕裂,階層劃分的進一步固化,甚至導致既有“不公平”的加劇。

  在智慧司法時代,司法場域會呈現出嚴重的“數據鴻溝”現象。這種“數據鴻溝”是基于技術知識資源分配不均衡導致的。〔11〕在這種關系之中,算法控制者(無論是司法機關還是智能服務商)與普通的個人之間已經形成了一定程度的不平等。“在這樣的場景中,算法控制者經其掌控的算法從而對個人了如指掌,但反過來,算法于個人而言卻是’黑箱‘,這將導致個人與算法控制者之間權力與信息顯著的不對稱。”〔12〕由于算法的復雜性和神秘性,對于技術知識資源占有不同比重的主體在面對司法活動時的強弱差距就會很明顯地表現出來。在司法領域中,公權力與私權利的司法資本原本就分配不均衡,而數據信息對于司法領域的介入,加劇了這種不均衡的現象。就公民個體而言,他們只能了解到自己面對大數據信息、算法規則可能會承受什么樣的法律結果,但對于哪些數據是被算法規則利用的,是如何影響司法裁決結果的,不得而知或者一知半解。

  這種“數據鴻溝”一定程度上削減了公民個體的程序權利,也必然影響著公民個體實體權利的行使。而且,司法機關依靠大數據、算法等數字信息技術的全面裝備,將公民個體置于司法權力的控制之下,而公民個體卻難以有效地運用大數據來維護其私權利,即很難通過數據抗辯來制衡司法權的運行。因此,數據信息的不均衡會成為法律主體之間強弱分化的鴻溝,可能造成新的“不公平”現象。

  3.技術司法應用的邊界

  近年來,在智慧司法的構建過程中,智能技術扮演著越來越重要的角色,滲透到司法活動的各個環節,譬如證據規則指引、單一證據校驗、逮捕條件審查、社會危險性評估、類案推送、量刑參考、案件評議、減刑假釋案件辦理等。越來越多的司法機關建成強大的信息系統,開發出更加智能的軟件來代替傳統的司法審理活動,甚至做出裁判。

  但是,司法活動本質上是對于人類實踐理性的具體應用,而“實踐理性并非某種單一的分析方法,甚至也不是一組相關聯的方法。它是一個雜貨箱,里面有掌故、內省、思想、常識、設身處地、動機考察、言說者的權威、隱喻、類推、先例、習慣、記憶、’經歷‘、直覺及歸納……”〔13〕這就意味著,司法不可能成為純粹的技術,過分地應用技術會引發司法根基的動搖。因此,大數據、人工智能等技術在司法領域的應用,邊界如何劃分?禁區如何設定?都是值得我們思考的問題。

  三、智慧司法難題的破解路徑

  對智慧司法所面臨的現實難題進行深入的研究和有效回應,共同尋找破解路徑,是法律職業共同體乃至全社會的共同使命:

  (一)設置算法的論證程序

  算法會在一定程度上抑制司法人員的恣意,增加法律適用的統一性而減少偏見。但與此同時,算法也可能帶來偏見并挑戰司法正義。因此,在大數據、算法等智能技術設計過程中,應當通過必要的程序輸送社會共識和司法價值理念,并有意識地將其融入智能系統的設計中,影響價值偏好、邏輯規則的設置,加強對智能技術應用的法律規制與倫理約束。

  首先,應該建立大數據、算法規則事前評估機制。以嚴格的程序規范從數據收集、信息挖掘到法編程等一系列人工智能的基礎行為,有效保障算法規則的合法性和合理性。評估委員會應當有技術專家、法學專家、社會公眾代表等相關人員的參與,如此才能夠增強算法規則的透明度與合理性,也能幫助公民個體詳細地了解算法決策的運作機制。社會公眾在參與評估算法規則設置,了解數據的來源、數據被算法規則使用或排除的標準、各種數據被賦予的權重比例等具體細節后,就可以理性地審視算法規則的公平性與合理性,也更容易接受算法裁決結論,維護司法權威。

  其次,應該建立算法決策審查與檢驗機制。在智慧司法備受矚目的今天,不僅要保證社會公眾對于算法規則設置的高度參與,也應建立算法決策審查與檢驗機制來確保關鍵流程的透明化、可控性與可追溯性。深度的大數據、算法應該經過相關領域專家反復的論證,并注重通過持續的審查與檢驗確保其有效更新,使算法決策盡可能不受偏見和無意識歧視的影響,以保障其符合司法價值的內涵。

  (二)嵌入案件糾補機制

  在司法活動中運用大數據的同時,必須重視可能建構新的裁判規則的罕見的獨特性案例。在既往的司法實踐中,有不少通過一個案例改變整個審判規則乃至法律規范的情況(比如孫志剛案),不能讓這樣的獨特性案例淹沒在“大數據”的海洋中。

  從實踐而言,構建司法模型是以歸納相關案件的共性為前提的。有些案件確實可以用數據模型來標準化,從而簡化訴訟程序。但是實踐中還有很多復雜的、獨特的案件,這些案件的背景因素、案件起因、行為模式、社會影響等有所差異。過分強調數據標準化必然會導致具體案件的差異性、復雜性被忽略。“相當數量的非類型化案件或者案件的非類型化因素,是可能形成的、統一的智能算法實際難以適用的領域;對非類型化案件的司法裁決,人工智能至多具有輔助的作用。某種程度上,正是司法活動的規律、司法判斷的特點,客觀決定了人工智能在司法領域的作用空間或實際禁區。”〔14〕因此,智能技術在司法裁判系統的應用,既要堅持內容與方法的開放性,也要在技術標準化的框架下謀求個別性、特定性的生存空間,嵌入案件糾補機制,以防止引發個案的不公平、不正義。

  (三)確立算法解釋規則

  知情權與抗辯權是公民對抗司法權運行的基本權利,是程序正義的必要構成。但在算法決策中,當事人不知道決策的依據、各種標準的數據加權以及決策遵循的價值判斷,而這些都與公民利益切實相關。因此,需要完善算法的解釋規則,從制度上防范和化解智能技術的復雜性、機械性和不確定性風險。“當相對人對算法得出的自動化決策存疑時有權請求制定算法及使用算法的數據控制者進行解釋說明,甚至可以要求在消除歧視因素后重新進行自動決策。”〔15〕我們可以參考歐盟《一般數據保護條例》第71條之規定,在這一條款中,歐盟明確提出了算法“解釋權”(righttoexplanation)概念,即“數據主體有權獲得人工干預,表達其觀點,獲得針對自動化決策的解釋并提出異議的權利。”〔16〕

  即便是根據最先進的技術編寫的代碼或構建的模型也有可能在某些情形下失靈,或者存在與個別案件的不兼容性。如果不賦予那些受算法決策不利影響的當事人尋求人工干預、獲得解釋的權利,很難保證他們受到公平或公正的對待。“如果我有更正權,那么我就需要看得出錯誤;如果我有權反對歧視,那么我就需要知道哪些要素被用于決策。要不然,信息不對稱就會使這些重要的法律權利變得毫無意義。”〔17〕因此,應當賦予當事人提請“算法解釋”的抗辯權,意在讓受算法決策影響或支配的當事人有機會在充分知情的情形下主張自己的權利。

  在規范層面,首先,如果公訴機關要使用人工智能輔助量刑制作量刑建議書時,應當明確告知被告人及其辯護人,讓他們能夠充分了解系統量刑的可能結果,并提出相應的抗辯意見;其次,在審判中,如果法官要使用人工智能輔助量刑系統,也應當明確告知被告人及其辯護人,他們擁有是否使用人工智能輔助量刑系統的決定權;再次,“必須載明所使用的人工智能輔助量刑系統的開發商,在對量刑系統的科學性產生有效懷疑時,可以通過專家輔助人的方式對系統原理進行質詢、作證;系統開發商有義務對其量刑系統的工作原理、邏輯和科學性提供證明,以免部分技術精英有意牽引司法運作,企圖重塑我國司法權力分布”。〔18〕

  (四)限定技術應用空間

  對智能技術不加節制地過度適用,會在一定程度上擠占司法裁量的空間,有違司法權的本質,同時可能會導致私權利的受損。〔19〕因此,在大數據、算法等智能技術適用于個案時,不但應注意必須通過合法的司法程序,更應該懷有警惕,可以通過對特定事項、特定主體或刑罰等設置禁區的方式來保護相關法益,設置風險的預警、隔離和熔斷機制,及時對大數據、人工智能的應用風險做出應對。

  首先,明確智能技術在司法決策中的輔助地位,司法人員應當避免陷入對智能技術、大數據的盲從和依賴。其次,合理限定智能技術的應用空間。第一,考慮案件的復雜程度及量刑幅度。案情比較復雜、量刑可能比較高的案件不宜使用算法決策系統。第二,考慮被告人的意愿。被告人明確表示不得選用算法決策系統的,應尊重被告人的選擇。第三,若被告人不認罪或辯護人明確要做無罪辯護的案件,也不宜先使用算法決策系統,以免出現未判先決的情形。第四,需要重點進行價值判斷的事項不宜使用算法決策系統。第五,對于技術尚不成熟的領域,智能技術應謹慎介入。

  (五)構建司法商談機制

  “復雜的程序設計、高深的法律用語及加重的訴訟風險,阻隔了人民群眾對司法供給的接近,法官由’慈母‘轉化成了’官僚‘,人民的司法正’遠離‘人民而去。”〔20〕

  為了避免智慧司法遠離人民,加劇司法的霸權主義和官僚主義,司法機關需要與其他司法參與主體、社會公眾展開商談與合作,以保證智慧司法的公平正義、安全可靠。算法黑箱所引發的偏見問題是多維度、多層面、多領域的,這就需要在司法活動中兼顧好私權利的保護與科技創新之間的平衡。因此,“差異和分歧的出現是正常的,關鍵是要針對差異和分歧建立有效的對話、沖突化解與分歧協商機制。”〔21〕推行司法商談機制,讓社會公眾的司法話語理性的進入司法場域,保障公眾輿論與司法運行的良性互動,提高司法裁決的公信力就十分的必要。

  司法商談機制的本質是所有司法參與主體就司法要素、參數等相互交流觀點,進而拓展思維視域,最終對法律事實的確定、法律規范的適用及司法裁決結果達成共識。這些不能完全依賴于智能技術,而是需要司法參與主體在司法活動中的通力合作,這也是司法商談機制的意義所在。

  四、結語

  我們必須清醒地認識到,智能司法時代的來臨,其內涵價值并不在于完全取代人類法官的工作,而在于更好地發現司法智慧、司法共識,并有效地使用它們。智能決策的內涵價值也不僅在于優化司法治理,還在于更好地保障公民的司法人權,實現法律面前人人平等。

  因此,智慧司法需要將私權利進行合理的安放,司法效率的獲得絕不能以私權利的損害為代價。因為司法活動并不是僵死的規則體系的適用,而是秉承人文關懷進行的判斷性智識活動。在推進智慧司法改革進程中,我們需要保持理性的思維,在欣喜地承受智能技術帶來的效率、司法能力提升的同時,也要適度規避智能技術所帶來的價值偏見、數據鴻溝等風險,以保障智慧司法的健康發展,早日實現司法現代化。本文原載《華東政法大學學報》2019年第4期

【參考文獻】
〔 1 〕 崔亞東:《人工智能與司法現代化:“以審判為中心的訴訟制度改革:上海刑事案件智能輔助辦案系統”的實踐與思考》,上海人民出版社 2019 年版。
〔 2 〕 參見[德]羅伯特 ? 阿列克西:《哈貝馬斯的法律商談理論》,雷磊譯,載徐昕、張艷麗主編:《北理法學》(第 3 輯),法律出版社 2013 年版。
〔 3 〕 參見[美]凱西 ? 奧尼爾:《算法霸權:數學殺傷性武器的威脅》,馬青玲譯,中信出版集團 2018 年版。
〔 4 〕 參見黃京平:《刑事司法人工智能的負面清單》,載《探索與爭鳴》2017 年第 10 期。
〔 5 〕 馬超等:《大數據分析:中國司法裁判文書上網公開報告》,載《中國法律評論》2016 年第4期。
〔 6 〕 栗崢:《人工智能與事實認定》,來源:https://mp.weixin.qq.com/s/lRcF2Zhel-kV5Gaaf5oGLQ,2019 年 4 月 24 日訪問。
〔 7 〕 白建軍:《法律大數據時代裁判預測的可能與限度》,載《探索與爭鳴》2017 年第 10 期
〔 8 〕 See Danielle Citron, “Technological Due Process” 85 Wash. U. L. Rev 1249 (2008).
〔 9 〕 See Linda J. Skitka,“ Does Automation Bias Decision - making?” 51 Int. J. Human-Computer Studies 991, 992 (1999).
〔10〕 安寶洋、翁建定:《大數據時代網絡信息的倫理缺失及應對策略》,載《自然辯證法研究》2015 年第 12 期。
〔11〕 參見鄭智航:《網絡社會法律治理與技術治理的二元共治》,載《中國法學》2018 年第 2 期。
〔12〕 See Jack M. Balkin,“The Three Laws of Robotics in the Age of Big Data” 78 Ohio State Law Journal. 1217, 1226, 1227 (2017).
〔13〕 參見[美]理查德?A. 波斯納:《法理學問題》,蘇力譯,中國政法大學出版社 2002 年版。
〔14〕 黃京平:《刑事司法人工智能的負面清單》,載《探索與爭鳴》2017 年第 10 期。
〔15〕 張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學》2018 年第 3 期。
〔16〕 See Recital 71 of GDPR.
〔17〕 See Margot E.Kaminski, “The Right to Explanation, Explained” 34 Berkeley Technology Law Journal 22(2019).
〔18〕 朱體正:《人工智能輔助刑事裁判的不確定性風險及其防范--美國威斯康星州訴盧米斯案的啟示》,載《浙江社會科學》2018 年第 6 期。
〔19〕 參見孫道萃:《我國刑事司法智能化的知識解構與應對邏輯》,載《當代法學》2019 年第 3 期。
〔20〕 蔡維力、張愛軍:《走出移植西法困境:回歸人民司法傳統--對我國司法改革的實證評析》,載《法學評論》2009 年第 4 期。
〔21〕 孫柏瑛:《我國公民有序參與:語境、分歧與共識》,載《中國人民大學學報》2009 年第 1 期。
        
        
      首都法學網       北京市高級人民法院       中美法律信息與圖書館論壇(CAFLL)
      國家圖書館       美國法律圖書館學會(AALL)       國家檢察官學院
      中國社科院法學所圖書館       國際法律圖書館協會(IALL)       最高人民法院圖書館

主管單位:中國法學會  主辦單位:中國法學法律網合作機制 技術支持:北大英華科技有限公司(北大法寶)
電話:010-82668266-152 傳真:010-82668268
加入收藏 | 本站首頁 | 聯系我們
go