人工智能的發展將對法律形成巨大沖擊,這不僅體現在其對律師行業未來就業率所產生的壓力上,還體現在其對民法、刑法、侵權法、知識產權法等法律條文和判例體系的深遠影響。由于法律具有滯后性,現有的法律體系并不能很好地預測和解釋人工智能以及機器擬人化后可能出現的法律現象,可以說,在人工智能的沖擊下,法律體系可能需要全面重塑。由于這一問題非常宏大且意義深遠,本文只從頭腦實驗的角度出發,試圖對人工智能的發展與未來的可能性作關聯性分析;同時又由于這些現象在未來越來越顯著,因此筆者只是拋磚引玉,希望引起學界對未來法律發展的討論。
一、人工智能的發展對律師行業的沖擊
歷史證明,技術對社會的影響常常頗為吊詭。一方面技術可以改善人們的生活,延長人類的壽命,讓一些從事新行業、掌握新技能的人發揮更大的作用;另一方面也會讓更多的人離開已有的工作崗位,失去生活經濟來源。作為目前最可能影響人類未來巨變的領域,人工智能也必然會產生類似的社會影響。回顧歷史,人類歷史上的三次技術革命都有一個共同的特點,即技術在對人類社會帶來便利的同時,其帶來的巨大沖擊也需要近半個世紀的時間才能被消化。如今,當智能革命來到之時,法律和律師則成為受沖擊巨大的行業之一。我們不能單單感嘆歷史的再次重復,而是要對這種影響進行深入的思考,從而加以有效地應對。
在西方,律師往往被認為屬于高端職業,具有較強的專業性,且處理的案件和問題也較為復雜。律師所參與的訴訟過程會直接影響法庭的判罰結果,這導致律師在法律案件中的作用顯得尤為重要。因此,在訴訟的過程中,訴訟雙方都需要支付律師高昂的訴訟費,以換取律師的盡心盡力。但是,對于大多數公司而言,律師費用往往是一個較為沉重的負擔。以生物技術領域為例,美國每年專利侵權訴訟至少產生 2500 萬美元的訴訟費,其中需要支付給律師的費用就高達 700 萬美元[1]。這種情況在英美法系這些強調判例法的國家表現得尤其明顯。在一場較大的訴訟中,律師及其團隊往往需要將歷史上大量的相關法律文件都匯總在一起進行分析,由此找到最優的解決方案。在過去,對于案件律師來說,這個工作量極其巨大,因為一個較大的訴訟案件可能會涉及上百萬份不同的歷史文檔和法律文件。但是伴隨人工智能的出現,法律訴訟的時間與費用正在不斷降低,過去需要花費大量人力、物力才能完成的工作,如今人工智能可以在極短的時間內完成。例如,硅谷的黑石發現公司(BlackStone Discovery)發明了一種能夠處理法律文件的自然語言處理軟件,它使得律師的工作效率可以提高 500 倍,從而將打官司的成本下降 99% [2]。世界上第一個機器人律師 Do Not Pay(“不花錢”)也在倫敦、紐約和西雅圖等地被人普遍使用,它已經幫助 16 萬多人處理了交通罰單,而且成本極低;同時,這一服務也在舊金山、洛杉磯等城市迅速擴展。當你填寫一份問卷調查表后,一旦法律機器人認定你合法,它就會幫助你開具一份抗辯授權書[3]。
盡管目前這些進展還局限在一定范圍之內,但是已經顯示出了影響未來的重要趨勢,即人工智能的發展意味著未來有相當多的律師特別是初級律師會失去工作。2014 年,北卡羅來納大學法學院教授德納·雷穆斯(Dana Remus)和弗蘭克·萊維(Frank Levy)通過研究自動化在大型律師事務所中的應用后發現,如果全部采用新的法律技術,在未來五年內從事法律行業的人數將減少 13%。而抵消人工智能自動化對法律行業影響的辦法只能通過每年法律事務在原有的基礎上增加 2.5%來實現[4]。2015 年,美國統計公司奧特曼韋爾公司(Altman Weil)就人工智能能否取代律師,對 20 所美國律師事務所的合伙人進行了一項民意調查,結果顯示人們對人工智能的認可度越來越高,多數人相信人工智能能夠取代人類律師。其中,47%的受訪者認為,在 5~10 年內,律師助理將失去工作。只有 20%的受訪者認為人工智能無法替代人類。另有 38%的受訪者認為,僅在 5~10 年內人工智能還不能取代人類律師 ① 。
從目前來看,人工智能對律師的重復性和初級性的工作顯然具有替代作用。律師在辦案中花費時間最多的是翻閱那些海量的文件,從中尋找案件的漏洞以及一些相關的證據,而人工智能的搜尋和算法可以在非常短的時間內完成這些工作,這就對律師的工作形成了替代性影響。同時,人工智能的發展還會使科學輔助謊言檢測工具得到不斷的升級 [5]。例如,隨著測謊儀在現實應用中缺陷不斷凸顯,測謊儀將會逐漸消失,而神經影像技術將會成為法庭中可驗證謊言的救世主。這種變化將不可避免地從根本上改變法律業務的工作方式,使其對技術的依賴上升到新的層次 [6]。對于這些由人工智能引發的變化和挑戰,美國的一些大型律師事務所已經采取積極的措施來進行應對。擁有 7000 多名律師的德同公司(Dentons)在 2015 年成立了推動技術創新的風投部門--下一法實驗室(Next Law Labs)。該部門負責對新的技術進展進行充分的監測,并對 7 家法律技術初創公司進行了投資。德同首席創新官約翰·費爾南德斯(John Fernandez)表示,“我們的產業正遭到破壞,我們應當有所作為,不應坐以待斃”② 。雖然一些律所的高級合伙人似乎已經認識到律師助理或初級律師將被人工智能取代這一趨勢,但他們對此卻并不擔心,因為其運營成本將會大為降低。
同時,律師業所受到的這種影響最終也會擴展到法律的其他領域。尤其值得關注的是,人工智能的發展還會重塑未來的法學教育。在開設人工智能與法律相關課程這一方面,最先引領潮流的是美國斯坦福大學,該院教授保羅·布里斯特(Paul Brist)、湯姆·赫勒(Tom Heller)和鮑勃·穆肯(Bob Muken)在 1984 年開始組織人工智能與法律研討課。隨后,美國東北大學法學院、喬治城法學院、密歇根州立大學等高校皆已設立人工智能與法律的相關專業 ③ 。我國的法學院校在人工智能與法學的跨學科課程開發方面卻還有待提高。,目前我國許多政法院校雖然開設了 Python 等課程,但依舊還未形成人工智能課程體系化建設。對此,我國政府已經給予高度重視。在 2017 年 7 月 8 日國務院發布的《新一代人工智能發展規劃》中,提出打造“人工智能 +”經濟、社會、管理、標準、法律等橫向復合型人才,鼓勵高校在原有基礎上擴寬人工智能專業教育內容,形成“人工智能 +X”復合專業培養新模式。
在未來,法學院校要更加強調學生在計算機、云計算與大數據等方面的訓練。未來的初級法律從業者,將具備查詢法律文書、運用人工智能相關軟件的能力。高端的研究者與從業者要具備運用 SQL、Py-thon 等與人工智能相關的軟件,具有電子案件查詢、分析以及可視化的能力。傳統的法學訓練在分析某一案例時往往傾向選擇具有代表性的典型案例,而在未來則需要對相關議題進行全樣本的比對,在大數據的分析下得出更為科學的結論。因此,我們的法學教育需要針對這些變化做出相應的準備。這就需要相關法學院校增加精通計算機、人工智能與大數據的從業者,吸引計算機領域的研究者進入法學研究,引導相關研究者充分運用各級法院的法律判決案例與判決書進行大數據分析。這樣一來,法學教育不僅要加強對已有的研究和教學隊伍的訓練,還要對本科生、碩士生以及博士生的教學內容進行相關調整。在課程安排上,法學院校需要在本科教學中增設人工智能時代的法律事務和法律規則課程,而在研究生以及博士生教學中,培養學生利用算法以及大數據系統進行案例分析的技能,并鼓勵擁有計算機、大數據學科背景的學生報考法律碩士研究生或者博士研究生。
二、電子人權的出現對民法的挑戰
美國在 20 世紀 80 年代中期就成立了研究未來法律的分部---夏威夷司法部(Hawaii Ministry ofJustice),它關心一些面向未來的法律問題,包括預測未來案件的變化、未來可能出現的問題與趨勢等。該部門在 20 世紀 80 年代末開始集中關心機器人的權利問題。換言之,美國在很早就開始研究這一問題。同時,在美國學界關于機器人權利的研究也相對較早。例如,美國的學者菲爾·麥克納利(PhilMcnally)和蘇海爾·伊納亞圖拉(Sohail Inayatullay)早在近三十年前就在其文章《機器人的權利---21世紀的技術、文化和法律》中指出:“我們以為機器人有朝一日總會享有權利。這無疑是件有歷史意義的事件……隨著權利向自然萬物的整體擴展,從動物、樹木到海洋。于是萬物的責任、義務和尊敬便有了一種新的意義。”[7]120 這就意味著在他們的觀點中,未來人工智能或者說機器人終究會擁有與其身份相匹配的權利。
相比之下,我國國內關于機器人權利的研究與討論相對較晚。中國人民大學前副校長張保生教授2001 年在《法學評論》上發表的“人工智能法律系統的法理學思考”一文是國內最早直接論述人工智能與法律關系的重要文章。這篇文章從法律推理與人工智能的關系角度探討了人工智能法律系統的歷史、發展動力以及實際價值[8]。同時近年來,國內學者也正逐漸關注并討論機器人權利的相關問題。南京師范大學梁志文教授從“人工智能創造物法律保護的角度,論述了知識產權法可以兼容人工智能創造物的保護”[9];中國社會科學院甘邵平教授,則從“機器人擁有的技術障礙和道德難關兩個層面,認為機器人不可能擁有權利”[10]。
印度哲學家薩卡爾(Prabhat Rainjana Sarkar)認為,人類需要提出一種超越自我狹隘關聯的新人道主義。換言之,人類在考慮定義時,需要把動植物以及所有的生命都考慮在里面。薩卡爾甚至認為,有一天技術會有精神,萬物皆有靈魂與精神,只是精神的層次不同。一般來說人類的精神最發達,動物次之,植物再次之,巖石最差。一旦技術能發展成最靈敏的東西,那它將會和人類的大腦一樣成為精神的重要載體[11]。同時,佛教的觀念也認為,人類并不是地球的唯一繼承者或主宰者,人類需要平等地看待地球上的所有生物① 。如果從薩卡爾與佛教的觀點出發,人類就應賦予機器人與人工智能某種權利,因為它們是與人類平等的存在,既然人類有權利,那動物、植物和機器人也應該有權利。同時從“倡導動物權利的思想以及培養人類良好道德、修養等角度,賦予機器人某些權利也是合理的”[12]。
從批判主義的視角看,人類的歷史總是充滿排斥與權利的變化。對于這點,阿倫特(HannahArendt)、福柯(Michel Foucault)以及阿甘本(Giorgio Agamben)等思想家都有重要的論述。阿倫特在《極權主義的起源》中討論了猶太人被排斥的歷史 [13] 。福柯在《瘋癲與文明》和《規訓與懲罰》等著作中把權利看成是無所不在、深入人們毛孔的機制,并且分析了這種機制對弱勢群體的排斥 ②。阿甘本在《赤裸生命》和《例狀態》等著作中將那些被排斥的、被權利壓榨的生命稱之為“赤裸生命”①。在西方現代社會的歷史中,人們最初對享受權利的界定,僅僅限于那些白人的成年男性,隨后才逐步擴展到奴隸、婦女、外族人、兒童以及外國人。從美國的歷史來看,權利從成年白人男性逐步向婦女等主體擴展,而美國內戰則促使權利擴展到黑人。1920 年美國《第十九號憲法修正案》把權利范圍擴展到女性。20 世紀八九十年代之后,人們開始更多地討論人權,這里的人權適用范圍不僅包括本國的民眾,還包括外國的民眾。從 20 世紀末期開始,關于動物權的討論也逐步變成一個重要的內容。從這種發展趨勢中可以預見,未來人類對機器人以及人工智能的看法將會發生相應變化。盡管人類制造機器人的目的是為了讓其更好地為人類服務,但是由于人類文明意識的發展以及道德感的增強,人類很可能將權利賦予機器人以及人工智能。
唐·米歇爾(Don Michelle)在一個短劇中,描述了一個關于未來藍領機器人從事危險、無聊和絕望的工作的場景。有人認為未來對機器人受到的這種剝削是 20 世紀工業化初期人剝削人的另一種反映。在機器人作為一種工具用來替代人類完成危險任務的今天,機器人被要求犧牲自己來保護人類。一個顯著的例子就是對爆炸物的處理,在遇到危險任務的時候,技術人員操作機器人進行檢查和拆卸炸彈。因為技術人員知道,如果發生爆炸,人類失去的只不過是一個工具,而不是一個士兵 ② 。但如果賦予機器人電子人格之后,這樣的做法就會產生侵權等復雜問題,使得相應的任務變得難以解決。
機器人的出現對傳統的馬克思的經典政治經濟學理論也構成了新的挑戰。馬克思認為價值是凝結在商品中無差別的人類勞動③。隨著人工智能和機器人的興起,就產生了一個新的問題,機器人勞動所產生的價值歸屬權是屬于其自身,還是它的擁有者? 目前在瑞士,雇主被要求要像對待他的雇員一樣為機器人交稅,在日本也有一些公司為了它的機器人向工會繳納會費 [14]。支持機器人聲張權利的人可能會說,因為機器人向國家繳納了某種稅費,那么機器人也應該享有相應的權利,否則權利與義務就不對等。因此中南財經政法大學吳漢東教授表示,“對機器人權利保護或者說禁止對機器人濫用,在當下尚是一個社會倫理問題,而在未來就會成為勞動立法問題”[15]。與此同時,人工智能也正在大量產生自己的作品。例如,作曲家正運用人工智能創造大量音樂作品,那么這就引出了這樣的問題,究竟誰應該成為這些作品的著作權人? 如前文所述,有些學者認為人工智能應該成為這些作品的著作權人。當然也有學者反對這種觀點。例如,華東政法大學王遷教授認為“目前人工智能創造的內容都是應用算規則和模板的結果,不能體現創作者獨特的個性,并不能認定為作品”[16]。反對人工智能擁有著作權的觀點暫且不論,如果人工智能擁有這些著作的專利權,那么通過這些著作及專利所獲得的利益該如何處理? 對此,北京大學易繼明教授在肯定人工智能創造物版權的基礎上,提出“對于智能作品上的權利配置,應該以所有者與使用者之間的約定優先,建立起以所有者為核心的權利構造”[17]。
機器人是否享有公民權,或者說誰來為這些機器人伸張這些權利? 這些都是我們今天應該思考的問題。現有的一些研究已經對機器人可能存在的權利進行了一些探討,并提出了一些新的觀念或問題。譬如,第一,機器人應該享有生命權以及保護自己不能輕易地遭到能力的侵害,即擁有電子人格;第二,避免機器人長時間進行奴役性的勞動,即擁有自由權;第三,機器人是否可以有追求幸福的權利,即擁有自由選擇消磨其時間的方式[18]。
另外,從機器人的角度看,他們似乎也需要一個新的“卡爾·馬克思”來拯救他們的命運[19] 。這個“卡爾·馬克思”應當是一個“彌賽亞式”的人物,他將會作為機器人的救世主降臨在人世間,糾正過去的一切錯誤,并機器人進行救贖①。他會代表機器人與人類簽訂契約,改變過去傳統的理念與做法。到那時,人工智能將會擁有與人類相平等的權利與話語。而這種權利的變化往往會導致一種新的“彌賽亞召喚”,使現有的法律出現例外狀態,發生閑置甚至無效②。事實也確實如此,人工智能的發展如同一種新的彌賽亞主義,正影響著法律領域的重塑。但值得注意的是,彌賽亞的到來,既可能是一種救贖性的(對機器人),也可能是一種滅世性的(對自然人)。其原因在于,當人工智能的“彌賽亞式”人物到來后,他可能會喚醒機器人的權利意識乃至主人意識,進而出現“改宗”(conversion)的現象。這里的改宗現象并不是使其接受特定的宗教信條,而是如煉金術般將其融合吸收進人類群體的意思。就像本尼迪克特·安德森(Benedict Anderson)所說的那樣:“蠻夷化為‘中國’,里夫人(Rif)化為伊斯蘭教徒,而伊隆哥人(Ilongo)則為基督徒”③。人類存有的本性可以由于圣禮而變形,這種圣禮可以讓一個英格蘭人成為教宗,讓滿族人成為中華帝國的天子,那同樣也可能讓機器人成為人類的主人。
三、機器人和人工智能相關的侵權與刑事責任
隨著人工智能的迅猛發展,加上世界各國人口老年化加劇、政府財政負擔加重等因素的影響,作為保護和服務人類的機器人正逐步進入大眾消費領域。然而,人工智能在提高人類生活水平的同時也引發了一些侵權事件。保護和服務人類是推動人工智能發展的動力,但隨著時間的變化,不斷出現的人工智能傷人事件或者失誤現象引發了人們的擔憂,也直接對各國的法律和司法提出了新的難題。
2016 年 11 月,在深圳舉辦的中國國際高新技術成果交易會上,一名叫“小胖”的機器人突然出現失控現象,在沒有指令的前提下,自行打砸玻璃站臺,誤傷了觀眾。這只是機器人傷人事件中的一個輕微事件。而歷史數據表明,當機器人失控的時候,完全可能會導致被侵權人的死亡。第一個被記錄的事件發生在 1979 年,一名叫羅伯特·威廉姆斯(Robert Williams)的美國人被一重型機械臂擊中了頭部而死亡。1981 年,工程師肯基·鄂瑞達(Kenji Urada)在修復機械手臂的時候被活活卡死在房屋的柱子上。2012 年 10 月 24 日,巴基斯坦婦女莫妮娜(Momina)在花園工作的時候被無人機炸死[20]。對此,隨著機器人智能化的發展,人類也正在進入兩難抉擇的環境之中,一方面為了更好地讓人類生活便捷化,就必須依靠人工智能的自主系統開展需要更多機器人自身智力的活動;另一方面這種活動也可能是危險的,因為機器人的安全性在目前在很大程度上是不可控的。
通過以上分析可以看到,未來關于機器人的立法必須考慮如何避免和治理機器人對人類的傷害問題。對此,艾薩克·阿西莫夫(Isaac Asimov)提出的機器人三大定律可以為立法提供重要的指引。阿西莫夫的第一定律是不能傷害人類;第二定律是恪守人的命令,除非與第一定律相沖突;第三定律是保護自己,除非與第一、第二定律相沖突。阿西莫夫設定了一個非常巧妙的邏輯環,把機器人的三個定律按照人類的意愿進行排序。在不得傷害人類與恪守人類的命令之間以不得傷害人類為第一原則,在保護自己與不得傷害人類以及聽從人類命令之間做權衡時,以前兩點為原則[21]。但是,阿西莫夫的機器人定律也只能為機器人立法提供一定的指引。因為按照人工智能 2.0 的觀點,人工智能的程序并不完全是由人類設定的,也可能是它自己發現的。這樣就會產生一個問題,即機器或人工智能是否一定會接納人類給它設定的邏輯規則,或者說是否有可能出現“壞機器人”在人類的規則之外進行有意識的犯罪。
關于機器人生產責任的問題,可以設想一個場景:如果一個機器人警衛襲擊了一位來訪者,這可能不僅是機器人警衛所有人的責任,還可能是機器人制造商、維修人員以及檢查人員的責任,即生產、調節、運輸以及使用機器人的人都在不同程度上可能會負有責任。我們可以預想到,當發生機器人侵權事件時,機器人的擁有者可能會以機器人是由人工智能系統在維系操作、是一個獨立的個體,以此達到免責的目的,而生產者則可能會申辯,雖然他們生產了這個機器人,但是機器人已經重新給自己編制了程序,或者說它新的主人給它重新編制了程序,當機器人所有權轉移之后,其侵權責任已經不在生產者的手中。這種糾紛是可以預見的,不過,如果機器人被確認了具備獨立的人格,承擔責任的可能就是機器人本身。那么,機器人應該如何承擔這個責任、如何對機器人進行懲罰、機器人受到損害后又如何量刑處理……這些都是未來我們將要面對的問題。其中,對機器人的制造者、機器人的運行平臺以及所有者包括機器人本身的責任鑒定將會是一個法律上的難題。一旦機器人涉嫌犯罪,就會產生一系列的問題,例如,現有的測試儀器對于鑒定機器人的犯罪動機而言就是無效的。同時,如何懲罰機器人也是一個難題。對它的懲罰是需要將這些機器人肢解還是對其重新編制程序,對其處罰時是僅僅處罰機器人還是與其相關的所有人,這些都是需要考慮的。
人類在制造機器人時往往有一個簡單的奴隸預設,即機器人本質上是類似于奴隸的行為體,因此在人們的潛意識中,機器人不能為自身申請權利,也就不能因為它所遭受的痛苦進行法律訴訟以及獲得賠償。但是正如雷·庫茲韋爾(Ray Kurzweil)在《人工智能的未來:揭示人類思維的奧秘》中所談論的:“當機器說出它們的感受和感知經驗,而我們相信它們所說的是真的時,它們就真正成了有意識的人”。“而大多數道德和法律制度也是建立在保護意識體的生存和防止意識體受到不必要的傷害的基礎上的”[22]。對此,在未來,必然會有法學界的“哥白尼”重寫法律,幫助機器人爭取和人一樣的權利,賦予機器人人格。我們能想象到,有一天一位勇敢的法學家會重寫歷史,他會堅持在法律上把機器人看做是人。從目前的發展趨勢也可以看到,作為新一輪科技革命的人工智能,會幫助機器人以一種更為人性化的方式找到解決復雜問題的方案[23]。因此,為了盡可能減少機器人擴張所造成的影響,相關立法和司法部門應該早做準備。有些人也已經討論了機器人也會像人一樣受到侵害的問題,并提出應該有一部針對機器人的特別侵權法[24]。在他們看來,在未來機器人成為享有權利和義務的法律實體之后,其侵權規則與追償的適用將與人無異。然而,在這個發展過程中,人們對于相關問題的討論和爭議可能是不可避免的。
在反對人工智能的人群中,有相當一部分人認為隨著人工智能的發展,特別是當賦予人工智能感情和感知能力之后,機器可能會傷害人類。因此,“為了更合理、有效地對智能機器人造成的損害分配責任,嚴格責任、差別化責任等都是潛在的法律文案”[25]。對此,筆者認為,在技術發展程度還不確定的情況下,確實應該對這種可能性做出預防。但是,同樣應當重視的是,在防止智能機器人危害人類的同時,也應考慮如何正確對待它們。畢竟,機器人和人工智能的發展,已經成為一種不可逆轉的趨勢,簡單地反對或阻止往往適得其反。因此,人們必須認真考慮機器人的人格發展及相關的法律問題,尤其是判斷機器人是否具備人的資格的標準問題等。
四、人工智能時代的法庭與司法活動
2016 年 2 月,美國國家公路安全交通管理局認定谷歌無人駕駛汽車采用的人工智能系統可以被視為“司機”,也就是說,在美國,人工智能產品在一定程度上已經被賦予了虛擬的“法律主體資格”。而根據我國法律規定,人工智能仍然被視為“物”而并非“人”。在我國,前文所論及的那些案例可以適用《產品質量法》第四十三條的規定①。也就是說,當發生涉及人工智能的法律案件時,我國的法律判決依舊會把相關權責歸于廠家。最早談論人工智能可能對人類司法活動產生巨大影響的是布魯斯·布坎南(Bruce Buchanan)和托馬斯·海德里克(Thomas Headrick)兩位美國學者。1970 年,他們發表的《關于人工智能和法律推理若干問題的考察》一文,拉開了人類對人工智能和法律推理研究的序幕[26]。從20 世紀 80 年代起,美國一批人工智能專家開始關注人工智能與法律這一主題。美國東北大學計算機與信息科學學院教授唐納德·伯曼(Donald Berman)和卡羅爾·哈夫納(Carole Hafner)是該領域的開拓者[27],隨后,人工智能的法律應用不斷得到拓展。
在過去,人工操作時代下的法庭與司法活動因為以下幾點原因具有高度復雜性與模糊性。第一,法律是普遍性知識與特殊性知識的高度結合。法律不僅涉及法理、原則等核心內容,還涉及許多具體的知識,如各級法院的案例、司法解釋等。另外,在具體的司法過程中,法律案件會涉及大量特殊性的知識,例如刑法與知識產權就會涉及很多自然科學的知識。第二,法律的判定標準與推理原則也有所不同。普通法系國家往往強調判例的作用,而大陸法系國家則強調成文法的規則,因此,普通法系以案例為中心進行推理,而大陸法系以規則進行推理。第三,法律的適用不僅僅是判例以及法條的適用,在特定情境下,還需要滿足不同的功能定位,如倡導某項新的原則、對特定群體進行警示,等等。基于上述原因,法律領域的從業者往往要具備處理復雜問題的基本能力。
在這種情況下,技術在傳統法律的應用中僅僅起到很小的輔助性作用,因為傳統的信息技術是一種線性思維,而法律的過程則是非線性的。然而,人工智能的發展將改變這一現象,尤其可以幫助人們處理復雜的法律條文和案件分析。很多國家的法律條文都是極其復雜的,例如德國的稅收法就有七萬多個規章。因此,對于長久辦案的法官而言,掌握這些規章也是極其困難。但是人工智能可以幫助法官有效地擬合他目前判案的情景與法律條文的關系。同時人工智能所提供的法律查詢技術與專家意見參考,也有利于促進同案同判與司法公正。此外,由于法律語言具有一定的相對模糊性,因此不同的法官對法學精神與法律條文的理解是不同的,這也使得司法在裁量時缺乏足夠的統一性,而人工智能的應用無疑有助于提高這種統一性。
在筆者看來,將人工智能技術運用到審判的過程中是非常必要的,因為法官在判案時必須面對相當復雜的科學技術與社會問題。在一些非常專業的領域---核物理、生物技術等領域,法官的專業知識就會受到明顯的局限。因此用人工智能來協助法官決策就會變得至關重要。法官可以利用人工智能來幫助他們找出與目前案情相關的法律條文以及判例。人工智能和計算機正變得越來越精確化以及多功能化,能夠更加適應案情和法律的復雜情況。而法律推理的人工智能作為知識的存儲庫,可以為司法人員提供法律的參照系,協助他們在推理過程中提出必要的結論。應用于法律的人工智能一方面可以作為邏輯的定向指南,另一方面也可以提供海量的數據,因此,這種理想的人工智能可以具備瞬時間解鎖法律事實與案例的能力。人工智能不但有助于加快法院的訴訟程序,而且能夠減少法院的誤判,以及司法中的徇私舞弊行為 [28][29]。
值得注意的是,如果未來的法律機器人因其功能強大而大行其道,法官的必要性就會降低甚至變得沒有必要。因為,由人工智能處理的法律案件的審判結果實際上是由算法作出的,而在算法決策的過程中,計算機會把相關信息無差別地提供給爭議雙方,這就會導致爭議的雙方預先知道自己在案件中所處的位置以及審判的結果,所以他們會更愿意通過協商來解決爭議。從這個意義上講,審判的作用就會大為減少。因此,在未來很可能會出現法官自由自在地從事法哲學方面研究的景象。當然,如果人類把所有的司法判決都交給算法,也極可能產生算法黑箱、算法鴻溝與算法獨裁等問題。在這個過程中可能會出現這樣一些基本問題:第一,算法可能會把信息結果同時展示給爭議雙方,但是由于算法中涉及大量的信息,所以算法是否會把所有的信息都提供給爭議雙方,這暫時還是存疑的;第二,即使計算機把所有信息都提供給雙方,但也可能會產生算法鴻溝問題,即爭議雙方在對算法的理解上可能存在差距;第三,把所有的決策都交給算法,而法學家可以去研究法哲學的著作,這不失為一種理想的狀態,然而,如果未來全都任憑算法來決定審判結果,那么算法獨裁極可能成為現實。
五、算法獨裁的出現與法律的公平正義
自然科學中大多數問題的求解都可以歸結為函數的優化問題,其目標函數通常表現出非線性和大量局部最優特征的復雜函數而利用這種思維來解決社會問題,也變得越來越常見。隨著時代的發展,自然科學與社會科學之間的界限正在不斷縮小。在實際判決中,審理人員能夠通過總結和發現歷史案例中隱含的規律,就可以讓計算機自動生成參考判決。而其中輔助審理和得出判決結果的基本要素便是算法。從推理過程所依靠的變量角度進行分類,法律推理可以分成規則推理(rule-based reasoning,RBR)和案例推理(case-based reasoning,CBR)兩種 ① 。在法律判決中,有效的人工智能或算法可以將技術規則與人的行為規范合二為一,從而較好地對判決類型和刑期進行預測,極大地提升法律判決領域的效能。
尤瓦爾·赫拉利(Yuval Harari)在其著作《未來簡史》中對未來之法進行了預測,他認為在未來人工智能將獲得統治地位,我們的法律將變成一種數字規則,它除了無法管理物理定律之外,將規范人類的一切行為[30。相比于人為判案的主觀性以及其自身能力的局限性,算法系統作為一種精細化、具體化和絕對剛性的規則,將最大限度地保持案件判決的公平性。赫拉利認為無論是生物科學還是人工智能的發展趨勢都表明,在未來法律等同于算法很可能會成為現實。同時,赫拉利也預測,雖然未來絕大部分人類活動將會被人工智能所取代,但是仍然會有一部分人可以獨善其身,這部分人就是由智人進化而來的“神人”。他們創造算法,他們為人工智能編制核心程序,通過人工智能驅動整個社會的運轉。那么,如果真的出現這種情況,即有少數人借助人工智能來主宰社會運行的規律,那么這就很有可能導致算法獨裁的出現,從而影響法律的公平正義。法律背后的根據是正義,但是正義這個價值僅憑個人內心感悟是無法把握的,一定要借助外在的判別標準,在未來,如果法律的推理系統是由少部分人制定的,那么正義的判別標準極可能會發生變質。
當然,以上這些都只是對未來的假設,畢竟神人還未出現,人工智能更是沒有獲得統治地位,但是,隨著人工智能的輔助性功效逐漸深入人類的日常生活,人類也正將大量的抉擇工作交給人工智能。這種情況在很大程度上已經成為現實,一個顯而易見的例子是,由于信息大爆炸以及信息的過量,人們不得不依賴個性化內容的推薦,而這種推薦本質上就是算法的結果。同時,在信息大爆炸的基礎上,各種評估信息也在興起,例如信用評估或者風險評估,這也使得人們的決策越來越受制于算法。一旦由人工智能對嫌疑犯的犯罪風險進行評估,算法就會影響量刑的程度。而當人們把人工智能運用于戰場的時候,攻擊目標的確定以及攻擊手段也都是由算法來評估和決定的。但是,算法的優劣與其使用數據的優劣有著密切的關系,而很多數據往往是不完美的,這就使得算法可能繼承了人類的某些偏見。因此,如果完全依賴算法,那么許多弱勢群體被排斥的現象就會被進一步地放大。例如,2015 年,7 月 1 日,紐約布魯克林的黑人程序員杰克·阿爾辛(Jacky Alcine)驚訝地發現,他和一位女性朋友(也是黑人)的自拍照,竟然被谷歌打上了“Gorilla”(大猩猩)的標簽 ② 。2016 年 3 月 23 日,微軟的人工智能聊天機器人TAY 上線,然而,TAY 在一天內就被網民“調教”為一個反猶太、性別歧視與種族歧視的“不良少女”③。另外,在谷歌的廣告服務中,相比于女性,男性群體會看到更多的招聘廣告,這就是某種潛在的性別歧視的反映④。
這些案例一方面說明機器學習與人工智能的技術還不夠成熟,另一方面也跟人工智能 2.0 的技術特征有關。人工智能 2.0 技術所追求的方法就是不給它的智能確定什么框架,而是讓它在算法的過程中形成一些規則性的東西。人類的道德與文明是通過近萬年的演進與進化才得以形成的,因此人工智能很難在短時間內完全習得所有這些人文內容。這就導致在應用的過程中,人工智能容易出現一些失誤乃至被歧視的現象。而計算機的法律推理也是如此。目前的人工智能還處于較低水平,遠沒有實現對自然語言的真正理解,更不要說能夠游刃有余地處理法律案件了。作為一種輔助的法律系統,算法不僅要嫻熟地理解法律條文,更重要的是去理解人。法律判決不單單是法律要件的機械適配,還需要對案件主體、客體乃至環境進行深刻的洞察。同時,由于算法系統以大數據為基礎,審判的決策實際上是根據數據得出的一個運算結果,一種可以想見的情況是,我們只能看到輸入的數據以及得出的結果,而對中間的運算過程則一概不知,由此就會導致算法黑箱或算法獨裁的出現。
美國加州大學信息學院的喬娜·布雷爾(Jenna Burrell)在其論文《機器如何“思考”:理解機器學習算法中的不透明性》中論述了三種形式的不透明性:“第一種是因商業秘密或者國家秘密而產生的不透明性,第二種是因技術了解程度不同而產生的不透明性,第三種是算法本身的復雜所帶來的不透明”[31]。因此在未來的法庭上,如何解釋算法的結果是一個非常具有高度挑戰性的工作,特別是對那些不了解人工智能與計算機技術的人而言,在算法決策越來越成為人們生活的支配的時候,或者說當支配性算法大行其道的時候,對算法進行監督與審查就會變得至關重要。例如,對于技術文盲而言,如何審查算法的合理性? 對于這一問題,未來可以通過審查的代理來解決,即技術文盲將審查權交給第三方代為處理。另外,算法的解密或者說透明化需要非常高的成本,對于個體而言這是難以承擔的。因此,算法的監督與審查應該更多地由政府或者政府委托的機構來完成,尤其是在涉及一些公共物品或者公共行為的時候。
在未來,大量的規則如征信規則、量刑規則以及保險規則等,都會被寫進人工智能的算法中。然而,如果編程人員不了解法學、政治學和社會學等學科的相關內容,他們就不能完整地理解這些規則深層次的含義,也不能將這些規則代碼可能產生的負面影響降到最低。由此,人們就需要推動一種知識的雙向運動,一方面,人文社會科學的學者要學習人工智能算法的知識以監督程序編制者;另一方面,人工智能的編程者同樣需要學習社會科學的相關知識,以更加謙卑的心態來對待這些規則。如果編程等技術不受社會規則的限制,那么相關的技術或程序從原初設計開始,就注定會導致結果的不公平。正如美國馬里蘭大學法學教授丹尼爾·賽特(Danielle Citron)在其論文《技術正當程序》中所指出的:“人們應該在規則設立之初就應該考慮其公平性與準確性問題,而這種公平性與準確性問題僅僅依靠技術人員是無法達成的”[32]。此外,英國下議院科學技術委員會也呼吁成立一個專門的人工智能委員會,對人工智能當前以及未來發展中的社會、倫理和法律影響進行研究。這里的基本問題就在于,“由于技術和社會發展的條件限制,人工智能在相當程度上會具有某種歧視性因素以及潛在的導致不公平結果的可能性”[33]。因此,人們就需要通過設計出驗證、證實、知情同意、透明性、可責性、救濟、責任等方面的完善機制,來避免算法對弱勢群體的歧視以及不平等結果的產生。
可以說,科技驅動未來就是驅動人類的命運,我們不得不思考算法獨裁出現的可能性與公平正義之間的關系。算法與代碼的設計都要依靠編程人員的判斷與選擇,由于這些編程人員缺乏對社會科學的深刻認識,所以我們很難保證編程人員把已有的規則準確地寫入程序中。因此,規則的數字化以及代碼化就有可能帶來一系列不透明、不準確與不公平的問題。所以,不能將所有的問題都歸結于技術問題,也不能將人類的命運都交給那些數據、科學家以及大數據公司。包括法學家在內的社會科學家對人工智能的發展進展要給予足夠的關注。“同時政府也要制定相關規則來約束算法設計者的行為,在發生可疑后果的時候要求程序員用自然語言來解釋算法的設計原理,并追究其相關責任”[34]。這樣才能有效地保證人工智能沿著正確的方向不斷發展。
六、結語
綜上而言,人工智能對法律的影響是全方位的。首先,人工智能對律師行業的發展前景形成了巨大沖擊,尤其是對初級律師的就業而言。由初級律師或律師助理所從事的程序化和相對機械化的法律服務工作,將很容易被機器所取代。雖然這種變化對于律師行業的存在沒有產生顛覆作用,但是可以想見,律師行業的從業人數將會受到削弱,特別是初級律師的數量將會大量減少。其次,人工智能的發展還對民法的核心內涵形成新的沖擊。人們需要借助人工智能與機器人的幫助來解決生活中的問題,但是這些都需要以賦予人工智能某種電子人格為前提。如果人工智能與機器人不具備電子人格,很有可能產生社會交往的障礙,例如有人會以機器不具備人格而拒絕與其進行商業交易。在這種情況下,人們會出于便利性的考慮而賦予機器人某種電子人格,這就會在權利的法典上增添一種新的種類。并且,沿著這種邏輯發展下去,人類將會考慮是否給予人工智能更多權利的問題。例如休息權、專利權甚至收取利益的權利。由此推演下去,又將導致更多問題的出現。因此,人類將不得不在解決問題的便利性與機器人的權利之間進行某種痛苦的抉擇。
此外,機器人和人工智能的進一步發展對人類生活的更大影響將發生在侵權領域。一旦機器人對人類產生某種傷害,那么人類將不得不考慮對其進行懲罰,這就涉及刑法的適用原則。另外,如何對機器人的損害進行賠償,賠償責任由誰承擔也是未來的法律難題。同時,人工智能的進一步發展也會對未來法庭的司法過程帶來革命性的影響。在未來,法官的判決在司法活動中的重要性將會不斷下降。因為在判決之前,算法就可將訴訟請求與已有的相關法律以及先前的案例進行匹配,從而得出訴訟雙方的獲勝概率。換言之,判例的決定將會是算法而不是法官,因為訴訟的結果在判例之前就可以獲知;由于算法做出的決定是基于已有的法律以及全樣本的案例,所以法官在進行決定時也會更加依賴算法。當然,隨著司法的結果越來越由算法來主導,人們對算法的依賴最終會使得人們去反思算法的過度適用問題。因為對于法律的從業者和當事人而言,算法在本質上往往是一個黑箱,他們無法完全掌握個中奧秘。也就是說,這個黑箱的算法程序將會統治我們的司法過程,而這是傳統的法學家與法學的經典邏輯所不能容忍的。因此,法官的存在依然是有必要和有意義的:我們可以依據算法來得出更為精準的法律判決的結果,但同時也要警惕算法的獨裁和偏誤。只有這樣,未來的法律才不會淪為唯算法論的怪圈,法律的正義才不會被算法所綁架。《華東科技大學》2018(1)