近些年,人工智能技術蓬勃發展,人類在享受福利的同時,越發關注到其不可避免涉及的法律問題。本文將以國內外人工智能與法律的研究現狀為基礎,著重探討人工智能帶給法律的影響和挑戰,包括人工智能對法律主體界定的影響,對隱私權的挑戰,對司法實踐的利與弊、帶給法律思想的變化。以及相應的解決措施。旨在探尋人工智能與法律的未來。
從人工智能誕生至今的短短半個世紀,人工智能從一般問題的研究向特殊領域不斷深入,并逐漸運用于社會實踐中。2015年7月,發生在德國大眾汽車制造廠的“機器人殺人”事件引發了公眾對于人工智能的恐慌和專家學者對相關法律法規完善的思考和爭辯。前不久,人工智能AlphaGo擊敗人類圍棋大師的新聞更是掀起驚濤駭浪。本周,作為全球知名律所之一的Baker& Hostetler宣布將啟用人工智能機器人協助處理企業破產相關事宜。可見,人工智能與法律的結合是時代的大勢所趨,機會和挑戰并存。如何正確認識人工智能與法律,將開啟未來計算機和法律學科研究的新天地。
一、人工智能與法律的研究現狀
(1) 國外現狀
1958年Lucien最早提出了法律科學的信息化處理,即建立法律文獻或案例自動檢索模型和法官裁量模型,但并未引起轟動。直到1970年Buchanan發表了《關于人工智能和法律推理若干問題的考察》,人工智能與法律作為計算機和法律學科的研究分支才進入人們的視野。1977年Thorne建立了THXMAN系統,1981年Waterman等開發設計了產品責任的民事裁量模型,1989年澳大利亞開發了LKBALSI,隨后很多國家都陸續開發了一系列專家系統或裁量模型,如Split-Up、HYPO、IBP、SCALIR等等。
(2) 國內現狀
我國法律專家系統的研制起步比國外晚,大概在20世紀80年代中期。1986年由朱華榮、肖開權主持的《量刑綜合平衡與電腦輔助量刑專家系統研究》被確定為國家社科“七五”研究課題,它對建立盜竊罪量刑數學模型作出了一定貢獻。在法律數據庫開發方面,1993年中山大學學生胡釗、周宗毅、汪宏杰等人合作研制了《LOA律師辦公自動化系統》。1993年武漢大學法學院趙廷光教授主持開發了《實用刑法專家系統》,能夠檢索刑法知識,推理判斷刑事個案。90年代以后,人工智能法律系統進入了以知識工程為主要技術手段的開發時期。
二、人工智能對法律的影響
(1) 人工智能對法律主體界定的問題
2015年7月,德國大眾汽車制造廠發生了一場“機器人殺人”事件:一名21歲的工人正在安裝和調制機器人,后者突然“出手”擊中工人的胸部,并將其碾壓在金屬板上。一些人工智能專家表示:“就現有的技術而言,我們不能‘將責任記在’機器人頭上。機器人還沒發展到那種程度,我們不應認為它們能為其所做的決策承擔責任。”無獨有偶,今年2月,Google無人駕駛汽車在美國加州山景城測試時,與一輛公交大巴發生碰擦,所幸無人受傷。美國高速公路安全管理局(NHTSA)卻確認,根據美國聯邦法律,用于自動駕駛的人工智能系統可以被視為司機。那么是“司機”、谷歌,還是驅動汽車的算法、感應器以及所有控制系統來負責交通事故呢?
這兩起事件不得不引發我們對人工智能卷入犯罪案件中責任主體界定模糊的問題的思考。人工智能究竟是不是具有法律和道德意識與行為能力的主體? 如果不是,那么當人工智能觸犯了他人利益、造成社會損失時,究竟應該由研發者、運營者還是使用者承擔責任呢?此時,有哪些法律能夠用來保障這些人的權益?如果承認人工智能是有行為能力的主體,那么又該如何為這些“人工智能”定罪量刑呢?
我國《產品質量法》第四十三條規定:因產品存在缺陷造成人身、他人財產損害的,受害人可以向產品的生產者要求賠償,也可以向產品的銷售者要求賠償。屬于產品的生產者的責任,產品的銷售者賠償的,產品的銷售者有權向產品的生產者追償。屬于產品的銷售者的責任,產品的生產者賠償的,產品的生產者有權向產品的銷售者追償。
該條文短期內解決人工智能的法律問題似乎不成問題,然而當人工智能發展到更高階段,具備高度的自主性足以不需要人類的插足時,如果對“人工智能”的定罪量刑還缺乏一個獨立的完整的法律體系,那么勢必造成社會秩序和法律體系的混亂。
(2) 人工智能對隱私權的挑戰
人工智能技術最初的目的是為了人類生存與發展謀福利,但是在某些情境下卻可能損害人類的某些權益,尤其是對于人的隱私權造成不必要的傷害。
美國華盛頓的一家初創企業Predata表示,自己開發的軟件可以透過對線上資料的分析,做出像關鍵報告一樣的精準預測,以降低恐怖襲擊發生的機率。Predata每天監控1,000多條Twitter、10,000個維基百科詞條、50,000個YouTube影片和數十家報紙。覆蓋了200多個國家的300多個話題。那么,這種行為在法律上是否有侵犯個人隱私的嫌疑呢?在奧地利,最高級法院、裁決機構的判決和下級法院所做的部分民事和刑事判決都通過法律信息系統在互聯網上公布。這是否造成個人隱私權和公眾知情權二者之間的沖突呢?
隱私權主要反映的是一種個體私人的利益,而知情權不僅有個人利益,還有公共利益。現如今,人們知情權的政治屬性越來越強烈,不僅要確認和保障公民最大限度地知悉、獲取信息的權利,更重要的是要提升整個社會的公開化與透明化。因此,在互聯網上公布判決在本質上還是符合法治的要求的。畢竟,有時對于某些罪大惡極者,還是要以公眾利益為重,保證公眾獲取信息的權利,起到警醒作用以達到預防犯罪的目的。
(3) 人工智能對司法實踐的影響
表面上,法律是不以個人意志為轉移的客觀存在,而實際上法律是人們習慣和信仰的產物,是多種利益權衡的結果。司法實踐中通常法官按照自己的理解解讀法條,律師總是按照對當事人有利的方式解讀法律。利益較量獲得的裁量結果受到多種“不可控”因素影響。因此,人工智能運用于司法實踐活動中,一定程度上能夠促進司法公正。首先,它的記憶和檢索的功能非常強大,能夠為司法審判提供相對統一的推理和評價標準,從而輔助法官做出具有一貫性的判決。其次,機器沒有物質欲望和感情生活,不會受到外界的干擾和侵蝕,較多地排除了人為的因素,相當程度上會減少某些不公正的司法審判現象。當然,法官能夠根據社會的發展變化,適時做出價值判斷和衡量,從而使案件得到更靈活的解決,這是目前人工智能還無法企及的一點。其次,人工智能運用于司法實踐活動中,能夠提高司法審判的工作效率。
由于人工智能法律系統具備強大的記憶和檢索功能,可以彌補人腦記憶和認識能力有限、記憶不準確、檢索不全面的缺陷,解放法官和律師的部分勞動,從而讓他們集中精力處理更為復雜的法律推理活動。另一方面,在司法人員的職業生涯中,難免要完成大量重復的機械工作,此時人工智能可以代替司法人員解決這些工作,從而極大地縮短其工作時間和壓力。當然,隨著人工智能法律技術的強大,司法人員是否面臨被全面取代的危機也是值得思考的一個問題。
(4) 人工智能對法律思想的影響
未來,人工智能技術勢必持續發展,那么,智能機器人是否會逐漸侵犯人類的人權?如危害人類的生命與健康、侵犯人類的尊嚴與隱私、破壞人類的自由等。從深層次而言,這絕非簡單的對立法的沖擊,更是對最根本的法律思想的考驗。當智能機器人具有“人性”后,我們是否該給他們以相同的“人權”?
三、人工智能之于我國法律挑戰的若干對策
(1) 加大對人工智能法律系統的研發力度
人工智能法律系統的創制無論對于立法、司法還是行政管理都會產生重大的影響。當人工智能法律體系逐漸完善時,很多法律問題自會迎刃而解。例如因人工智能系統的故障造成對人類的傷害等等。我國的人工智能法律系統仍處于初級階段,其研制開發遠落后于西方發達國家。因此一方面,我國應盡快建立一個完備的法律信息系統,及時公布各類相關法律法規以及最新學術成果,為司法人員提供及時的法律事實和統計數據,并建立完善的索引功能,便于檢索查詢。另一方面,我們要在已有成果的基礎上努力突破法律解釋模擬、啟發式程序、自然語言理解、價值推理模擬等方面的固有局限找到最優策略。
(2) 建立一套獨立完整的人工智能法律體系
對于涉及人工智能的有爭議的案件中,我們會發現最根本的問題是我國目前缺乏一套專門針對“人工智能”定罪量刑的法律體系。僅僅針對個案,采取必要的法律解釋和審判是不能從根本上解決問題的。首先,應該。明確研發者、運營者和使用者各自的權利和義務,確保具體案件中法律責任承擔的清晰性。其次,對“人工智能”是否能夠成為法律主體應該劃定出清晰的標準。同時,建立維護個人數據和隱私權的合理機制,加強人工智能程序審查機制等等。
人工智能與法律問題作為法學研究的一對基本范疇,擁有廣闊的探索空間。國內外對此探索的步伐也正在逐步加快。盡管還未能形成一套完整獨立的人工智能與法律的理論體系,但其中涉及的法學思想的轉變、法律條文的與時俱進等等都考驗著國內外立法者和司法人員的智慧。未來對人工智能與法律如何進一步造福人類不僅僅是法學人關注的重點,更將是涉及哲學、倫理學、社會學等全人類共同的命題。(本文由中國首家互聯網法律+O2O第一門戶——獵律網整理)