最近一段時間,“AI”(人工智能)一詞在中國大火,許多學科均在思考如何用信息技術改造自己,中國法律界亦不甘落后:從各種法律人工智能研討會到形形色色的法律服務機器人、裁判文書自動生成系統,法律人工智能的建設與應用正如火如荼地展開。與中國相同,在美國,法律人工智能也引發了學界與實務界廣泛的討論。
一、人工智能在美國刑事訴訟程序中的應用
在美國法律人工智能領域,引起最為廣泛討論的問題聚焦于算法在刑事訴訟程序中的應用。在刑事訴訟程序中,算法已經被大量運用于預測個體是否會再次犯罪、是否會在開庭日出庭等的可能性,從而影響關于保釋、量刑和假釋的決定。早在幾年前,美國就開發了 COMPAS、PSA 和 LSI-R 三種主要的風險評估軟件。目前美國已有一半以上的州利用這些軟件來輔助法官量刑。其中,一些州使用模型來辨別哪些在押人員會在被釋后再次犯罪,從而降低累犯率。而鑒于美國遠高于世界平均水平的被羈押率,實務界同時希望在 AI 的幫助下通過更精確的風險評估來降低羈押率。另一些州則直接依靠軟件作出量刑。因此法律 AI 的預測功能對美國法律界尤為重要。
客觀地講,風險評估并不是新興的領域,它一直是量刑和假釋裁定的組成部分。過去,這種評估依據的是法官的“直覺、本能和正義感”,而現在它將依賴于精算模型和算法。COMPAS 與LSI-R 模型涉及五個主要的領域:犯罪的情況、人際關系、個性、家庭、還有社會排斥程度。由于這些軟件的專利性,確切的考慮因素和計算權重外界是不得而知的。有學者研究稱,這些模型可能還包括工作經歷、經濟狀況、家庭成員犯罪記錄、年齡、性別、婚姻狀況、福利、教育水平等要素。值得一提的是,其中的一些模型是為假釋裁決而設計的,現在被應用于量刑。
實踐中,這些模型首先會根據與不特定于被評估者個人的歷史數據來做出風險評估。隨后,這些模型會針對被評估者個人提出一系列的問題(有時數量可能達到甚至超過 100 個),并從評估者個人回答或是從其犯罪記錄中提取答案。問題的答案會進一步和歷史數據進行比對。盡管如此,許多學者認為這樣的模型會在適用于被告人個體時出現偏差,因為這些模型考慮了大量與個體情況無關的因素。與此同時,另一些納入這些模型的因素則帶有內在的偏見。換言之,這些模型可能在預估某一群體的累犯風險時相對可靠,但是對于某一個人的累犯風險的預測卻會失準。此外,雖然累犯風險評估一直以來都是量刑中需要考慮的一個因素,但它也僅僅是因素之一--例如,被告人的道德可責性也時常會納入量刑的考量。但是,依靠算法來進行決策使量刑在很大程度上取決于對被告人累犯風險的評估,將累犯風險變成量刑中的主導因素,甚至是唯一因素。這樣的結果是量刑僅僅關注被告人累犯的可能性,卻忽視了對監禁本身是否可以降低累犯概率的考量。
二、人工智能的司法挑戰
在美國,使用機制并不透明的算法來取代法官的自由裁量引發了眾多的批評,擔憂和在法律上對人工智能的挑戰,歸納起來有如下幾點:
一是準確性問題。有學者通過實證研究證明這些算法并不能很好地預測未來的暴力犯罪。一項研究顯示,在被算法預測的未來兩年內實施暴力犯罪的人中,僅有 20% 實施了暴力犯罪。就算范圍擴大到所有犯罪,算法預測的正確率亦僅有61%。據此,部分學者認為 AI 及其算法在風險預測領域并不優于其他方法。
二是社會問題。具體而言,量刑應當依據社會經濟的不利因素嗎?算法在預測評估時會參考對方及其親屬的生活環境、受教育程度、收入情況、違法記錄等因素,這便形成了一種壓制貧困者的體制。 1 盡管這些算法并沒有直白地詢問或是考量被告人的種族,但是其中很多問題設計卻體現了同樣的目的。許多學者已經提出很有說服力的論證,證明這些設計可能會引發種族偏見和歧視。例如,被評估對象是否與警察打過交道這一問題。在美國的大城市,年輕的黑人經常會被警察攔下來盤問。這樣的問題顯然偏向性地增高了黑人被評估者被預測的累犯風險。同樣地,被評估者會被詢問,自己的家庭成員是否曾經有犯罪記錄。鑒于在美國,黑人的被羈押率要遠遠高于白人,這樣的問題同樣會過度預測黑人受訪者在未來再次犯罪的風險。因此,是否與警察打過交道、是否有家庭成員被定罪這類問題很大程度上相當于直接詢問被評估者的種族,進而把種族和累犯的可能性聯系起來。學術研究也證明,這些模型過度預測了黑人被評估者在未來再次犯罪的概率,同時也過低地預測了白人被評估者在未來累犯的概率。綜上,雖然美國不允許開發者在這些軟件、算法和模型中明確寫入種族等因素,但因某一些考慮因素客觀上與種族相互關聯,它們也就成為了將種族與風險預測相連的媒介。
三是正當程序問題。鑒于負責設計這些算法的公司拒絕公開它們的算法或這些算法所考量的要素,被告人也就無從知曉這些算法究竟是如何設計的。同時,目前針對法律程序中算法的使用,幾乎不存在任何規則或者標準。這就在一定程度上形成了所謂的“黑箱”。正是這一擔憂使人工智能在美國司法系統中的運用引發批評和爭議,并帶來了在現實中的司法挑戰。最近在威斯康星州便發生了一起典型的案件(State v. Loomis)。該州一法院使用 COMPAS 作為量刑過程中的一環,被告認為法官違反了正當程序原則并上訴到威斯康星州最高法院。此案在美國引起了較大的爭論,被告的部分主張也基本反映了當前對法律AI 的一些批判觀點:其一,被告應有權檢查法律AI 的算法,如何科學透明地公開算法信息是法院必須面對的;其二,算法的科學有效性和正確性值得懷疑;其三,算法量刑侵犯了量刑個別化的權利;其四,使用性別作為量刑考量違反憲法。威斯康星州最高法院最后駁回了被告的訴訟請求,主要原因在于州最高法院認為使用算法量刑沒有違反正當程序原則,且在使用法律 AI 的同時法官依然可以做到量刑個別化--在威斯康星州,算法只是量刑的一個因素,并不是唯一的因素。不過該州最高法院亦借此案要求法官向被告人解釋其在做出量刑決定時所考量的因素并且提醒法官警惕使用 COMPAS 算法所可能帶來的偏見。
對于本案的處理結果,有學者批評道:本案過后,法官使用的算法依然沒有得到公開,“黑箱”依然可能存在。另外,相關機構未能對法官如何使用風險評估系統給出充分的指導。換句話說,法官真的理解自己在使用工具嗎?如若法官不能掌控好AI、算法,很有可能會導致種族歧視等社會問題。更為致命的一點在于,算法量刑工具的虛假吸引力風險依舊存在。和其他國家的法官類似,美國法官很多時候對 AI 和算法持樂觀態度,認為其具有科學性和專業性,操作起來也方便快捷,因而喜歡使用。殊不知算法模型的建立是依據經驗法則的,法律 AI 本身其實是另一種形式的經驗證據;長期使用會有過度重視“專家”的經驗證據的風險。
當然,我們不能忽視法律人工智能支持者們的論點。他們認為,像這些模型一樣,法官同樣持有偏見,而算法可以提供一個用來減少人類偏見的客觀標尺。對此,一些學者提出,算法并不一定比人更能克服偏見,但不會被主觀情感左右的 AI 在某種程度上或許能夠限制人為偏見或提供客觀基準。此外,一些州的數據表明,算法在減少被羈押率方面確實有一定的作用。而面對美國法院普遍存在的訴訟爆炸、案件積壓問題,人工智能高效的運算、決策能力能使大量事實清楚、情節簡單的案件得到迅速處理。支持者們希望通過降低積壓的案件來減少案件當事人因為案件審理緩慢而遭到的不公正待遇。
除法院之外,類似的法律 AI 也被應用于其他法律領域,典型的就是美國警察執法使用的軟件和算法。但其重點不在預測個體犯罪的可能性,而是犯罪可能發生的時間、地點,從而使警方能合理配置警力資源。不過與法院使用的人工智能一樣,其使用風險即在偵查貧困社區犯罪方面形成惡性反饋循環:每次出警偵查到的輕微犯罪將會形成新的數據,而這些數據又會促成更多的出警,因為模型在預測輕微犯罪(“滋擾型犯罪”)方面的優先度高于重罪,并且其考量因素可能讓貧窮本身成為一種罪行。長此以往,對少數族裔社區的輕微犯罪將會產生更多的逮捕,同時以數據為基礎的犯罪地圖會與貧困區域重合。如此,有學者警告稱,警方使用的預測模型將會令傳統的“罪后出警”向“罪前出警”轉變,將普通公民轉變為嫌疑犯;同時預測型出警還會助長種族歧視的風險--這些問題都是目前美國警方要著力解決的。
在司法領域之外,一些律所和法律公司也利用 AI 來進行電子開示和結果預測,并利用自然語言處理技術篩選與案件有關的文檔。而在法學研究領域,對于機器學習技術、AI 和算法的研究,美國法學界可以說是剛剛起步,對不少既存和設想中的問題的驗證與解決還停留在最初階段。與中國的法學家們一樣,多數美國法學家也對電腦技術不甚了解,缺乏相應的技能。因此在研究法律人工智能時,多學科、跨領域的合作相當重要,而法律人工智能亦會是法律實證研究的新領域。
三、結語
綜上所述,目前,人工智能在美國快速發展,而違反正當程序、歧視、法律私有化和算法不透明等關于這一技術的諸多問題與質疑也隨之而來。為了人工智能在法律領域應用的繼續發展,我們需要對它的優點與不足進行一番坦誠地討論。同時,也需要增加人工智能技術的透明性。公眾對司法的信任建立在司法透明的基礎上:如果這些算法繼續保持神秘并且 AI 發展的重心始終圍繞著公司的利潤而非公正與平等,那么 AI將很難取得公眾對其在司法中運用的信任。這一信任不僅關乎 AI 的成功發展,同時也關乎司體系長期、健康地運行。 本文原載《中國法律評論》2018年第2期