現(xiàn)代性與人類能力的機(jī)器替代人工智能是現(xiàn)代工業(yè)文明發(fā)展的必然產(chǎn)物。早在“現(xiàn)代性”剛剛發(fā)端的時(shí)代,現(xiàn)代政治哲學(xué)的奠基者霍布斯,便開始把人和人類社會(huì)構(gòu)想為當(dāng)時(shí)最為精巧的機(jī)器--鐘表。在《論公民》的“前言”中,他寫道: “對(duì)于鐘表或相當(dāng)復(fù)雜的裝置,除非將它拆開,分別研究其部件的材料、形狀和運(yùn)動(dòng),不然就無從知曉每個(gè)部件和齒輪的作用。同樣,在研究國(guó)家的權(quán)利和公民的義務(wù)時(shí),雖然不能將國(guó)家拆散,但也要分別考察它的成分,要正確地理解人性,它的哪些特點(diǎn)適合、哪些特點(diǎn)不適合建立國(guó)家,以及謀求共同發(fā)展的人必須怎樣結(jié)合在一起。”[1] 1611年出現(xiàn)的“機(jī)械人”(Automaton)一詞就是那個(gè)時(shí)代的社會(huì)想象的產(chǎn)物,它是指借用鐘表齒輪技術(shù)而制造出來的自動(dòng)機(jī)械人偶。雖然這種人偶還完全不具備任何意義上的“智能”,但它卻體現(xiàn)了促使“人工智能”最終變成現(xiàn)實(shí)的那種思路:人的身體和大腦最終都可以用機(jī)器來模擬。到了19世紀(jì),隨著自然科學(xué)尤其是物理學(xué)的突破性發(fā)展,法國(guó)哲學(xué)家開始設(shè)想研究人類行為和人類社會(huì)組織方式的學(xué)科最終可以達(dá)到物理學(xué)那樣的成熟狀態(tài)。人們將可以通過觀察、統(tǒng)計(jì)和分析而發(fā)現(xiàn)近似于自然規(guī)律的社會(huì)規(guī)律,從而“研究現(xiàn)狀以便推斷未來”[2] 。這就意味著不僅個(gè)人的身體和大腦功能可以借助物理學(xué)法則用機(jī)器來取代,而且社會(huì)的組織機(jī)制包括法律,最終也可以由機(jī)器來操作和管理。在孔德的時(shí)代,由于技術(shù)手段的欠缺,孔德的野心還無法變?yōu)楝F(xiàn)實(shí)。基于有限樣本的統(tǒng)計(jì)分析,還遠(yuǎn)遠(yuǎn)無法使社會(huì)預(yù)測(cè)達(dá)到物理預(yù)測(cè)那樣的精準(zhǔn)性。但大數(shù)據(jù)存儲(chǔ)和分析已經(jīng)使樣本分析有可能為整全數(shù)據(jù)分析所取代,并且日益實(shí)現(xiàn)動(dòng)態(tài)化和分析者與對(duì)象之間的互動(dòng)化。換句話說,機(jī)器通過“深度學(xué)習(xí)”也可以變得具有社會(huì)性,并且參與人類社會(huì)的各種活動(dòng),包括游戲和工作。 [3] 在孔德的時(shí)代,英文中又出現(xiàn)了Android(人形機(jī)器)一詞,其詞根是古希臘文中的andro(人)和eides(形狀)。人是語言的動(dòng)物,一個(gè)新語詞的出現(xiàn)必然是因?yàn)樾碌氖挛锍霈F(xiàn)在了人們的現(xiàn)實(shí)生活或想象之中,而它能夠被普遍使用并成為語言的一部分,則是因?yàn)楹芏嗳硕挤窒碇磉_(dá)的現(xiàn)實(shí)體驗(yàn)或想象。
在工業(yè)化時(shí)代,用機(jī)器來取代人的勞動(dòng)已經(jīng)成為一個(gè)普遍現(xiàn)實(shí),馬克思和恩格斯的經(jīng)典著作中有許多對(duì)這種現(xiàn)實(shí)中工人階級(jí)悲慘處境的描述,和對(duì)造成這種狀態(tài)的生產(chǎn)關(guān)系和社會(huì)制度的批判。1920年,捷克作家卡雷爾·卡佩克(Karel ?apek)創(chuàng)作了《羅素姆的萬能機(jī)器人》( Rossumovi univerzální robo-ti )劇本,發(fā)明了如今通用的Robot (機(jī)器人)這個(gè)詞匯,它的辭源是波蘭語中的強(qiáng)迫勞動(dòng)(Robota)和工人(Robotnik)。 [4] 如果說工業(yè)化時(shí)代的機(jī)器(無論是不是人形的)所取代的只是人的一部分體力勞動(dòng),那么作為工業(yè)化升級(jí)版的人工智能則是這個(gè)過程的自然延伸,它旨在取代人的一部分腦力勞動(dòng)。人類一直在試圖強(qiáng)化自己的能力。比如,過目不忘一直是中國(guó)傳統(tǒng)文人最為欣賞和希望得到的能力之一。《三國(guó)演義》中的張松,在接過楊修遞給他的《孟德新書》并快速瀏覽一遍之后,說這哪里是什么新書,分明是戰(zhàn)國(guó)時(shí)無名氏所作,為曹丞相所抄襲。楊修不信,結(jié)果張松把該書內(nèi)容背出,一字不差。但如今的人工智能已經(jīng)能夠輕松地做到這些,乃至更多。人工智能實(shí)際上已經(jīng)可以將腦力勞動(dòng)和體力勞動(dòng)、感知和思維、決策和執(zhí)行結(jié)合到一起,從而更像是一個(gè)完整的人。至于是否具有“人形”已經(jīng)不再重要了,任何關(guān)于“人工智能”的擬人化想象都是不必要的。有了物聯(lián)網(wǎng)、大數(shù)據(jù)和云計(jì)算作為支撐(或組成部分)的人工智能,可以通過它的感官(遍布各處的傳感器)獲得千里之外的數(shù)據(jù),利用自己無比強(qiáng)大的記憶力(聯(lián)網(wǎng)計(jì)算機(jī)和云存儲(chǔ))來沉淀和消化數(shù)據(jù),利用自己遠(yuǎn)勝于人類的計(jì)算能力(算法和基于“神經(jīng)網(wǎng)絡(luò)”技術(shù)的深度學(xué)習(xí))來處理數(shù)據(jù),并在此基礎(chǔ)上作出判斷和“決策”。
目前,人工智能正以驚人的速度在兩大領(lǐng)域推進(jìn):一是“合成智能”(synthetic intellects),即我們通常所說的機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)、認(rèn)知系統(tǒng)、演進(jìn)算法等要素的綜合應(yīng)用。它不是傳統(tǒng)意義上的編程,也就是說,它突破了“機(jī)器只能做程序員編排它去做的事情”這一局限,你只要給它一大堆人類窮其一生也無法瀏覽完的數(shù)據(jù)(在互聯(lián)網(wǎng)的幫助下,這意味著你只要把它聯(lián)網(wǎng)并通過編程使它具有搜索功能),包括人類智力根本無法理解的無結(jié)構(gòu)數(shù)據(jù),再設(shè)定某個(gè)具體的目標(biāo),最終系統(tǒng)會(huì)產(chǎn)生什么結(jié)果完全不可預(yù)見,不受創(chuàng)造者控制。圍棋智能體AlphaGo先后打敗李世石和柯潔,并以“獨(dú)孤求敗”的姿態(tài)“宣布退役”,只是合成智能小試牛刀的一個(gè)例子。另一個(gè)領(lǐng)域是“人造勞動(dòng)者”(forged labors),它們是傳感器和執(zhí)行器的結(jié)合,可以執(zhí)行各種體力勞動(dòng)任務(wù),從海底采礦、外空維修到戰(zhàn)場(chǎng)殺敵。當(dāng)然,離我們生活最近的例子是自動(dòng)駕駛。這兩個(gè)領(lǐng)域的結(jié)合不僅意味著“機(jī)器人”的“頭腦”和“四肢”都是很強(qiáng)大的,還意味著“機(jī)器人”的大腦、感官和手足是可以分離的,手腳(執(zhí)行器)可以延伸到離大腦(中央處理器)十萬八千里的地方。在“萬物聯(lián)網(wǎng)”的時(shí)代,只有不聯(lián)網(wǎng)的東西才不在人工智能的可控制范圍之內(nèi)。正因?yàn)槿绱耍絹碓蕉嗟娜碎_始表示出對(duì)“人工智能”的擔(dān)憂。樂觀派認(rèn)為人工智能是對(duì)人類能力的強(qiáng)化,它本身仍然處在人類的控制之下,因?yàn)樗鼪]有“自我意識(shí)”和情感。沒有我執(zhí),也便沒有“貪、嗔、癡”,不會(huì)對(duì)人類構(gòu)成威脅。甚至不能算是真正的智能,因?yàn)橹悄艿膬?nèi)核是“主體的自由”以及主體對(duì)這種自由的自我認(rèn)知和主動(dòng)應(yīng)用。 [5] 但即使我們承認(rèn)樂觀派對(duì)事實(shí)的描述和判斷是正確的,也已經(jīng)有了擔(dān)心的由頭。人工智能顯然不成比例地強(qiáng)化了一部分人的能力,即那些站在人工智能發(fā)展前沿的“大數(shù)據(jù)掌控者”和人工智能開發(fā)企業(yè)的能力,同時(shí)使越來越多的人變成難以保護(hù)自己的隱私和自由并面臨失業(yè)風(fēng)險(xiǎn)的弱者。 [6] 換句話說,以前可以自認(rèn)為比藍(lán)領(lǐng)工人社會(huì)等級(jí)更高的白領(lǐng)腦力勞動(dòng)者,如今也變成了新的隨時(shí)可能被機(jī)器所替代的勞工。當(dāng)強(qiáng)弱懸殊越來越大,而且強(qiáng)者對(duì)弱者的剝削和控制越來越以“物理法則”而不是赤裸裸的暴力面目出現(xiàn)時(shí), “強(qiáng)者為所能為,弱者受所必受”[7] 的局面就會(huì)成為普遍現(xiàn)象。自由與必然之間的關(guān)系,因人工智能的出現(xiàn)而越發(fā)成了一個(gè)由社會(huì)分層(階級(jí))決定的事務(wù):越來越少的人享有越來越大的自由,越來越多的人受到越來越強(qiáng)的必然性的束縛。由于法治迄今為止被證明是保護(hù)弱者權(quán)益、使人避免落入弱肉強(qiáng)食的叢林法則支配的最有效機(jī)制,所以,當(dāng)人工智能所帶來的新風(fēng)險(xiǎn)被許多人感知到的時(shí)候,人們自然希望法律能夠因應(yīng)這種風(fēng)險(xiǎn)提供新的保障。但法律自身也面臨著人工智能的猛烈沖擊。人工智能對(duì)法律應(yīng)對(duì)社會(huì)變遷的傳統(tǒng)模式的挑戰(zhàn)法律是人的有限理性的產(chǎn)物,法律規(guī)則本身也體現(xiàn)并順應(yīng)著人的局限性。正如麥迪遜所言: “如果人都是天使,就不需要任何政府了。如果是天使統(tǒng)治人,就不需要對(duì)政府有任何外來的或內(nèi)在的控制了。”[8] 這個(gè)說法當(dāng)然針對(duì)的是人的貪婪和野心,但也拓展到人的有限認(rèn)知和計(jì)算能力。即使一個(gè)人充滿善意,他也可能因?yàn)樽约旱哪芰λ薅鴮?duì)自己和他人造成傷害。而法律規(guī)則的設(shè)計(jì)和執(zhí)行,都會(huì)把這種有限能力納入考慮。實(shí)際上,人類社會(huì)所有的規(guī)則,包括游戲規(guī)則,都是有局限的人為有局限的人設(shè)計(jì)的。下過圍棋的人都知道“金角銀邊草肚皮”這個(gè)基本的布局規(guī)則,這個(gè)規(guī)則的理由有兩個(gè):一是效率,在角上無論是做眼還是吃掉對(duì)方棋子需要的步數(shù)都最少,在角上,做一個(gè)真眼需要三步棋,吃掉對(duì)方一個(gè)子只需要兩步棋。二是計(jì)算能力,給定的邊界越多,需要考慮的可能性越少。效率考量使得Al-phaGo在布局階段與人類高手相比并沒有太大的區(qū)別,仍然是先占角后取邊。但在序盤和中盤階段,Al-phaGo卻更敢于向中腹突進(jìn),這是與它更強(qiáng)大的計(jì)算能力相適應(yīng)的。
實(shí)際上,由于人認(rèn)識(shí)到自己的局限性,所以在設(shè)計(jì)規(guī)則的時(shí)候所考慮的都是所謂常人標(biāo)準(zhǔn),即以具有中等智力和體力水平的正常人作為規(guī)則可行性的判斷標(biāo)準(zhǔn)。而且,為了形成穩(wěn)定的社會(huì)秩序,法律往往還會(huì)設(shè)置比常人標(biāo)準(zhǔn)更低一些的安全線。從這個(gè)意義上講,法律是一種保守的社會(huì)力量,不以滿足具有創(chuàng)新精神和創(chuàng)新能力的人士追求“更快、更高、更好”的野心為目的。梁漱溟先生所說的“經(jīng)濟(jì)進(jìn)一步,政治進(jìn)一步,循環(huán)推進(jìn)”[9] ,也適用于法律。法律調(diào)整經(jīng)濟(jì)-社會(huì)關(guān)系的方式從來都是回應(yīng)性的。在技術(shù)發(fā)展和社會(huì)-經(jīng)濟(jì)結(jié)構(gòu)變化緩慢的農(nóng)業(yè)社會(huì)和早期工業(yè)化社會(huì),這種保守傾向使法律發(fā)揮了很好的維持社會(huì)穩(wěn)定的作用。但在人工智能時(shí)代,它卻使法律滯后于技術(shù)和經(jīng)濟(jì)的發(fā)展,使那些把握先機(jī)的人獲得了巨大的邊際回報(bào)。比如,互聯(lián)網(wǎng)金融和電子商務(wù)在中國(guó)的迅猛發(fā)展就是在相關(guān)法律缺位的情況下發(fā)生的,等到立法者開始制定規(guī)則來規(guī)范這個(gè)領(lǐng)域,法律所約束的只是后來者,并且自然地鞏固了先占者的壟斷地位。同時(shí),先占者又利用已經(jīng)積累起來的經(jīng)濟(jì)、技術(shù)和資源(數(shù)據(jù))優(yōu)勢(shì),開始搶占未被法律規(guī)制的新領(lǐng)域。如此層層遞進(jìn),最終使得循規(guī)蹈矩、永遠(yuǎn)在法律規(guī)定的范圍內(nèi)活動(dòng)的人們與他們之間的差距越來越大。同時(shí),正如石油是工業(yè)化時(shí)代最寶貴的資源一樣,數(shù)據(jù)是人工智能時(shí)代最重要的資源。掌控的數(shù)據(jù)越多,供人工智能“學(xué)習(xí)”的資源就越多,也就越容易在這個(gè)領(lǐng)域取得突破性的進(jìn)展。這一事實(shí)導(dǎo)致了這樣幾個(gè)結(jié)果:
第一,它使個(gè)人的隱私和自由變得非常脆弱。這一點(diǎn)我已經(jīng)在此前的一篇文章中做了詳細(xì)分析 [10] ,這里不再贅述。
第二,它使得傳統(tǒng)制造業(yè)和其他與互聯(lián)網(wǎng)沒有直接關(guān)聯(lián)的行業(yè)處在很明顯的劣勢(shì)。因?yàn)槿斯ぶ悄懿皇且粋(gè)傳統(tǒng)意義上的新“行業(yè)”,也不是一種覆蓋人類生活全部領(lǐng)域的技術(shù)。最早進(jìn)入互聯(lián)網(wǎng)領(lǐng)域的企業(yè)因其行業(yè)特性而自然成了“大數(shù)據(jù)掌控者”,而人工智能對(duì)大數(shù)據(jù)的依賴又使得它們自然成了人工智能領(lǐng)域的先驅(qū),進(jìn)而,它們又可以利用自己在人工智能方面的優(yōu)勢(shì)介入所有傳統(tǒng)行業(yè),包括農(nóng)業(yè)。比如,通過在農(nóng)作物上安裝生物傳感器來獲得比實(shí)驗(yàn)室作業(yè)更加直接和可靠的植物生長(zhǎng)數(shù)據(jù),從而獲得農(nóng)業(yè)科技方面的突破。實(shí)際上,這并不是一種假設(shè),而是谷歌和阿里巴巴等公司正在做的事情, “精準(zhǔn)農(nóng)業(yè)定點(diǎn)解決方案”(Precision Agriculture Point Solu-tions)和“植物云”等概念都對(duì)應(yīng)著某種特定的商業(yè)模式。[11] 無論是政府還是社會(huì)對(duì)這種新生事物都有一種好奇和樂見其成的心態(tài),希望看到結(jié)果后再采取行動(dòng),而當(dāng)結(jié)果發(fā)生時(shí),且不論它本身是好是壞,這些大數(shù)據(jù)掌控者全方位的優(yōu)勢(shì)必然已經(jīng)形成。
第三,由于這些企業(yè)已經(jīng)掌握了比政府所掌握的更多的關(guān)于公民(作為消費(fèi)者)的信息,熱衷于建設(shè)智慧城市、智慧政府、智慧法院的公權(quán)力部門也不得不求助于它們,浙江省法院系統(tǒng)求助于淘寶來獲得當(dāng)事人真實(shí)住址信息,只是一個(gè)還不那么“智能”的例子。這將模糊公權(quán)力與私權(quán)力之間的邊界,使政府本來應(yīng)該監(jiān)管的對(duì)象成為政府的合作伙伴乃至實(shí)際控制者。
第四,這些掌握人工智能應(yīng)用技術(shù)的企業(yè),可以用人工智能來分析任何數(shù)據(jù),包括消費(fèi)者行為數(shù)據(jù)、政府決策數(shù)據(jù)、立法數(shù)據(jù)和法院判決數(shù)據(jù),并生成對(duì)策。這些對(duì)策有些要求線下的人際溝通,而有些則完全可以通過線上操控來完成,比如谷歌和百度的搜索結(jié)果排序,京東、亞馬遜和淘寶的有針對(duì)性的商品推薦,等等,從而誘導(dǎo)個(gè)人消費(fèi)行為和政府決策行為、立法行為。而這種誘導(dǎo)往往以非常隱秘的、合乎人性的方式展開,不會(huì)讓人覺得有什么不好的事情正在發(fā)生。由此導(dǎo)致的結(jié)果便是,人們都“自愿服從”于某種他們看不見的力量,而這種力量借助“人工智能”的超強(qiáng)“腦力”使得法律和監(jiān)管完全找不到對(duì)象,乃至被它牽著鼻子走。用臉書(Facebook)創(chuàng)辦人扎克伯格的話來說,我們正在進(jìn)入“算法”而不是法律統(tǒng)治人的時(shí)代。[12] 而算法在表面上就缺乏法律的無偏私性和一般性:它毫不遮掩地服務(wù)于設(shè)計(jì)者植入其中的目的。
第五,一旦人工智能被應(yīng)用于本來就充滿流動(dòng)性、風(fēng)險(xiǎn)與不確定性的金融市場(chǎng),便可能帶來既無創(chuàng)新價(jià)值,又危害巨大的災(zāi)難性后果。2010年5月6日,美國(guó)股市發(fā)生了“閃電崩盤”,一萬億的資產(chǎn)價(jià)值瞬間蒸發(fā),股價(jià)齊跌 9 個(gè)百分點(diǎn),道瓊斯指數(shù)急落1000點(diǎn)。美國(guó)證券交易委員會(huì)(SEC)花了半年的時(shí)間才搞清楚發(fā)生了什么:原來是不同炒家的計(jì)算機(jī)程序在相互競(jìng)爭(zhēng)的過程中導(dǎo)致了失控,在這個(gè)被稱為高頻交易的神秘世界里,這些系統(tǒng)可以“迅雷不及掩耳”地收割小型獲利機(jī)會(huì),還可以相互探測(cè)和利用彼此的交易策略。 [13] 像這樣的人工智能對(duì)決不僅存在于股票市場(chǎng),還存在于任何投機(jī)性的多方博弈市場(chǎng)。事后追責(zé)型的法律對(duì)策,無法阻止人們?cè)诰薮罄娴囊T下,利用人工智能進(jìn)行這種損害范圍無法控制的賭博式行為。
在人工智能所帶來的人類生活世界的一系列改變中,以上只是幾個(gè)比較突出的直接挑戰(zhàn)傳統(tǒng)法律應(yīng)對(duì)模式的例子。隨著人工智能應(yīng)用領(lǐng)域的不斷擴(kuò)大(這是必然會(huì)發(fā)生的),它對(duì)現(xiàn)代法律體系的沖擊會(huì)越來越強(qiáng)烈。然后,習(xí)慣于在固定的思維框架(法律教義)中來思考問題的法律人,很難跳出這種框架去面對(duì)和理解日新月異的社會(huì)事實(shí)。在下面一節(jié),我將以歐盟的“機(jī)器人法”立法建議以及美、德兩國(guó)的無人駕駛立法為例,來說明這種傳統(tǒng)思維方式在應(yīng)對(duì)人工智能問題時(shí)的局限性。人工智能對(duì)法律職業(yè)的沖擊
(一)人工智能的“法律人格”
1942年,美國(guó)科學(xué)家和科幻小說作家伊薩克·阿西莫夫,在短篇小說《轉(zhuǎn)圈圈》中提出了“機(jī)器人的三條律法”:第一,一個(gè)機(jī)器人不得傷害一個(gè)人類,也不能因?yàn)椴蛔鳛槎试S一個(gè)人類被傷害;第二,一個(gè)機(jī)器人必須遵守人類施加給它的規(guī)則,除非這些規(guī)則與第一律法相沖突;第三,一個(gè)機(jī)器必須保護(hù)自己的生存,只要這種自我保護(hù)不與第一或第二律法相沖突。 [14] 但機(jī)器人發(fā)現(xiàn)自己無法同時(shí)遵守第二和第三條律法,因此它陷入了不斷重復(fù)自己先前行為的循環(huán)。這種情況不會(huì)發(fā)生在人身上,也不會(huì)發(fā)生在其他生命體身上,因?yàn)椋缁舨妓顾f,自我保存是第一自然法。人會(huì)本能地在自我保存與勿害他人之間選擇前者。逆此而行的利他主義行為有時(shí)也會(huì)發(fā)生,但要么是道德教育或宗教信仰的結(jié)果,要么是出于保護(hù)后代的延伸性自我保存目的。只有嚴(yán)格按照人類植入其程序(算法)之中的規(guī)則來行事的機(jī)器人,才會(huì)陷入這種無解的怪圈。
在阿西莫夫提出機(jī)器人三大律法的前一年,德國(guó)工程師康拉德·楚澤剛剛發(fā)明世界上第一臺(tái)能執(zhí)行編程語言的計(jì)算機(jī)Z3,這套繼電器式計(jì)算機(jī)只能存儲(chǔ)64個(gè)單詞的內(nèi)容,而且運(yùn)行速度極其緩慢。顯然,阿西莫夫還很難想象今天任何一部普通個(gè)人電腦的計(jì)算能力和存儲(chǔ)空間,更不用說互聯(lián)網(wǎng)和云計(jì)算了。因此,他把機(jī)器人想象為一個(gè)具象化的、能夠傷害人的身體也能被人傷害的物體是可以理解的,而且實(shí)際上已經(jīng)是非常有遠(yuǎn)見的。但如今的法學(xué)家們?nèi)匀灰赃@種擬人化的想象來理解機(jī)器人,試圖制定規(guī)范來約束它們的行為,甚至賦予它們法律主體資格,這便顯得有些不合時(shí)宜了。
2016年,歐洲議會(huì)向歐盟委員會(huì)提出報(bào)告,要求制定民事規(guī)范來限制機(jī)器人的生產(chǎn)和市場(chǎng)流通。其中第50(f)項(xiàng)建議: “從長(zhǎng)遠(yuǎn)來看要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格(electronic personality)。”[15]但在如何落實(shí)這種“法律人格”所必然帶來的民事行為能力和責(zé)任能力規(guī)則時(shí),這份報(bào)告并沒有提出具體的方案。如果機(jī)器人對(duì)人造成了損害,究竟是適用羅馬法中的“繳出賠償”( noxoe deditio )原則(即把機(jī)器人交給受害者或其家屬處置),還是讓機(jī)器人支付賠償金或坐牢(在這種情況下,最終承擔(dān)責(zé)任的仍然是機(jī)器人的“主人”,因?yàn)闄C(jī)器人不可能有獨(dú)立的收入,限制它的“自由”則等于剝奪了其“主人”的財(cái)產(chǎn)權(quán))?由此可見,機(jī)器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人,這使得它的“法律人格”顯得多余和毫無必要。實(shí)際上,這份報(bào)告在具體的規(guī)則設(shè)計(jì)部分也自動(dòng)放棄了適用機(jī)器人“法律人格”的努力,比如,它提議制造商為他們的機(jī)器人購(gòu)買強(qiáng)制性保險(xiǎn)。此外,還要設(shè)立專門的基金來補(bǔ)充保險(xiǎn)機(jī)制,主要的出資人也是制造商、經(jīng)銷商和其他利益相關(guān)者。這套保險(xiǎn)機(jī)制的覆蓋范圍不僅是機(jī)器人,還包括機(jī)器管家、無人駕駛汽車和無人機(jī)等。該報(bào)告還提議設(shè)立專門的“歐洲機(jī)器人和人工智能局”來管理被歸類為“智能機(jī)器人”的機(jī)器。這體現(xiàn)了傳統(tǒng)的官僚機(jī)構(gòu)思維方式。這份報(bào)告指出,機(jī)器人的銷售在2010-2014年間增加了17%。涉及機(jī)器人的專利申請(qǐng)?jiān)谑觊g增加了三倍。德國(guó)人均擁有機(jī)器人的數(shù)量已位居全球
第三,僅次于韓國(guó)和日本。僅在2015年,全球銷售的機(jī)器人就達(dá)到50萬個(gè)左右。預(yù)計(jì)到2018年,全球?qū)⒂?30萬個(gè)機(jī)器人在活動(dòng)。但它并沒有提供這些機(jī)器人實(shí)際造成損害的數(shù)量和類型。德國(guó)主要的工程和機(jī)器人行業(yè)協(xié)會(huì)VDMA發(fā)表了反駁聲明,指出政治家的擔(dān)心是科幻小說看多了的結(jié)果,目前人工智能給人類帶來的好處遠(yuǎn)遠(yuǎn)多于壞處,立法者不應(yīng)該倉(cāng)促出臺(tái)規(guī)制措施來阻礙工業(yè)4.0的發(fā)展。在具有無限潛力的人類發(fā)展領(lǐng)域,充分的討論是有必要的,但沒有必要制定出詳細(xì)的法律規(guī)則。 [16]
(二)自動(dòng)駕駛汽車
2017年5月,德國(guó)聯(lián)邦議會(huì)和參議院通過了一部法案,對(duì)《道路交通法》進(jìn)行了修改。它允許高度自動(dòng)化和完全自動(dòng)化的汽車作為交通工具上路。但為了符合1968年《維也納道路交通公約》第八條“每一部車輛在行駛時(shí)都必須有駕駛員在位”的規(guī)定,它沒有允許自動(dòng)駕駛汽車變成“無人駕駛”汽車。它規(guī)定,當(dāng)自動(dòng)駕駛系統(tǒng)啟動(dòng)之后,司機(jī)可以轉(zhuǎn)移注意力,比如去讀書或上網(wǎng),但她必須保持足夠的警覺,以便在系統(tǒng)發(fā)出請(qǐng)求時(shí)恢復(fù)人工控制。它還要求高度或完全自動(dòng)化汽車安裝記錄駕駛過程的黑匣子,在沒有卷入交通事故的情況下,黑匣子信息必須保存半年。如果自動(dòng)駕駛模式正在運(yùn)行過程中發(fā)生了事故,責(zé)任在于汽車制造商。但如果自動(dòng)駕駛系統(tǒng)已經(jīng)發(fā)出了請(qǐng)求人工控制的信號(hào),責(zé)任便轉(zhuǎn)移到了汽車上的駕駛?cè)藛T身上。
在這部法律通過之前,法學(xué)家弗爾克·呂德曼(Volker Lu?demann)教授曾經(jīng)在聯(lián)邦議會(huì)發(fā)表專家意見,指出法律草案有四個(gè)缺陷,這些缺陷雖然后來部分得到了修正,但其給司機(jī)帶來的不確定性以及隱私問題卻仍然存在。在新法下,司機(jī)不知道該怎樣做才能避免法律責(zé)任,自動(dòng)駕駛汽車無法實(shí)現(xiàn)真正的“無人駕駛”,也就是車上只有乘客而沒有駕駛員,阻礙了自動(dòng)駕駛汽車的商業(yè)化發(fā)展。試想,如果一個(gè)人花比傳統(tǒng)汽車貴得多的價(jià)錢購(gòu)買了自動(dòng)駕駛汽車,卻時(shí)刻必須保持警覺,而且要在自動(dòng)駕駛系統(tǒng)控制汽車操作一段時(shí)間后瞬間介入,應(yīng)付緊急情況,這實(shí)際上對(duì)駕駛員提出了更高的要求。新法把自動(dòng)駕駛汽車造成人身傷亡的最高賠償額度提高到1000萬歐元,比原來的最高賠償額度增加了一倍。雖然這筆賠償在多數(shù)情況下將由保險(xiǎn)公司支付,但保險(xiǎn)公司無疑會(huì)提高保費(fèi),這也增加了自動(dòng)駕駛汽車車主的負(fù)擔(dān)。此外,黑匣子信息保留半年的規(guī)定也增加了個(gè)人數(shù)據(jù)和隱私被濫用的風(fēng)險(xiǎn),因?yàn)樽詣?dòng)駕駛汽車上遍布的傳感器和攝像頭會(huì)記錄下非常多的個(gè)人私密信息。 [17]與德國(guó)立法模式相對(duì)照,2017年9月在美國(guó)眾議院通過的《自動(dòng)駕駛法》(Self Drive Act)則采取了一種完全不同的思路。它沒有改變現(xiàn)有的道路交通規(guī)則和與事故責(zé)任相關(guān)的侵權(quán)法規(guī)則,而是用憲法和行政法的思維方式劃分了聯(lián)邦與各州之間在規(guī)制自動(dòng)駕駛汽車方面的責(zé)任,明確了交通部在確立自動(dòng)駕駛汽車硬件安全標(biāo)準(zhǔn)、網(wǎng)絡(luò)安全標(biāo)準(zhǔn)、公眾知情標(biāo)準(zhǔn)等方面的具體義務(wù)和履行時(shí)間表。其中第12條強(qiáng)化了隱私權(quán)保護(hù),要求制造商和經(jīng)銷商只有在提出了滿足一系列具體要求的“隱私權(quán)保障計(jì)劃”的前提下,才可以供應(yīng)、銷售或進(jìn)口自動(dòng)駕駛汽車。這些要求旨在確保自動(dòng)駕駛汽車的車主和使用者對(duì)自己的個(gè)人數(shù)據(jù)和隱私有充分的控制能力,不至于在自己不知情的情況下任由制造商或程序設(shè)計(jì)者使用自己的個(gè)人數(shù)據(jù)。這部法律目前還沒有在參議院獲得通過,其內(nèi)容還可能會(huì)有進(jìn)一步修改,但基本框架應(yīng)該不會(huì)有大的改變。
(三)算法設(shè)計(jì)者必須遵守的倫理規(guī)范
與上述約束自動(dòng)駕駛汽車制造者和使用者的規(guī)范不同,德國(guó)交通部長(zhǎng)任命的倫理委員會(huì)最近提出的一個(gè)報(bào)告,展現(xiàn)了一種完全不同的思路:要求算法(即軟件)編寫者遵守一系列倫理法則。其中提出了20條倫理指導(dǎo)意見,核心是把人的生命放在首位。比如,其中第七條要求:在被證明盡管采取了各種可能的預(yù)防措施仍然不可避免的危險(xiǎn)情況下,保護(hù)人的生命在各種受法律保護(hù)的權(quán)益中享有最高的優(yōu)先性。因此,在技術(shù)上可行的范圍內(nèi),系統(tǒng)必須被編程為在權(quán)益沖突時(shí)可以接受對(duì)動(dòng)物和財(cái)產(chǎn)的損害,如果這樣可以防止人身傷害的話。第八條規(guī)定,諸如傷害一個(gè)人以避免對(duì)更多人的傷害這樣的倫理難題不能通過事先編程來處理,系統(tǒng)必須被設(shè)定為出現(xiàn)這種情況下請(qǐng)求人工處理。 [18]法律如何更加“智能”地應(yīng)對(duì)人工智能正如尼古拉斯·卡爾所指出的那樣,人工智能是歷史悠久的人類工程學(xué)的最新發(fā)展,而人類工程學(xué)是藝術(shù)和科學(xué)結(jié)合的產(chǎn)物,它是為人類追求真善美的目的而服務(wù)的。 [19] 人類不能被人工智能不斷增長(zhǎng)的能力牽著鼻子走,乃至被帶入完全不受人類控制的未來。在筆者看來,為了更好地應(yīng)對(duì)人工智能帶來的新風(fēng)險(xiǎn),在保護(hù)創(chuàng)新的同時(shí)確保人類生活的美善品質(zhì),可能的法律發(fā)展包括以下幾個(gè)向度。
首先,現(xiàn)有的法律模式?jīng)]有擺脫傳統(tǒng)的具象化乃至擬人化思維方式,僅僅將有形的智能化機(jī)器或“機(jī)器人”納入規(guī)制范圍。但是,正如本文已經(jīng)明確指出的那樣,這些有形的機(jī)器只是人工智能的一種表現(xiàn)形態(tài),即“人造勞動(dòng)者”,它們都受一種無形的、彌散化的智能的控制,這種被稱為“合成智能”的由算法、網(wǎng)絡(luò)和大數(shù)據(jù)組成的無形、無界的存在,才是人工智能的智能所在。正如李彥宏等敏銳地指出的那樣: “……也許真要靠算法的頂層設(shè)計(jì)來防止消極后果。人工智能技術(shù)可能不只是理工科專業(yè)人士的領(lǐng)域,法律人士以及其他治理者也需要學(xué)習(xí)人工智能知識(shí),這對(duì)法律人士和其他治理者提出了技術(shù)要求。法治管理需要嵌入生產(chǎn)環(huán)節(jié),比如對(duì)算法處理的數(shù)據(jù)或生產(chǎn)性資源進(jìn)行管理,防止造成消極后果。”[20] 這種“頂層設(shè)計(jì)”,我們可以稱之為“人工智能社會(huì)的憲法”,它的制定或生成需要法律人和程序員、人工智能專家的合作,以便使算法進(jìn)入法律,法律進(jìn)入算法,從而使人工智能的基礎(chǔ)操作系統(tǒng)符合人類的倫理和法律。
其次,為了做到這一點(diǎn),政府應(yīng)當(dāng)在發(fā)展人工智能方面加大投入,吸收更多的人工智能人才參與立法、行政和司法工作,避免使自己遠(yuǎn)遠(yuǎn)落后于商業(yè)力量。這在我國(guó)比較容易做到,因?yàn)轫敿獾拇髮W(xué)和科研機(jī)構(gòu)都是國(guó)家資助和管理的。如果這些人才中大多數(shù)都轉(zhuǎn)而為商業(yè)機(jī)構(gòu)服務(wù),不僅無法體現(xiàn)社會(huì)主義的優(yōu)越性,也不利于讓人工智能向服務(wù)于社會(huì)公共利益的方向發(fā)展。
再次,從現(xiàn)有的各國(guó)立法模式來看,歐盟和德國(guó)直接修改民事規(guī)則和交通法規(guī)的做法,是在事實(shí)不清、需要解決的問題不明朗的情況下做出的倉(cāng)促選擇,既不利于鼓勵(lì)創(chuàng)新,也不利于保障公民的權(quán)利。在目前這個(gè)階段,比較穩(wěn)妥的方案是美國(guó)式的公法模式,指定一個(gè)現(xiàn)有的政府部門負(fù)責(zé)確立相關(guān)的行業(yè)技術(shù)標(biāo)準(zhǔn)、安全標(biāo)準(zhǔn)和個(gè)人數(shù)據(jù)保護(hù)標(biāo)準(zhǔn),而這個(gè)標(biāo)準(zhǔn)不應(yīng)當(dāng)是自上而下武斷強(qiáng)加的,而應(yīng)當(dāng)是對(duì)行業(yè)自身所發(fā)展出來的標(biāo)準(zhǔn)與公共利益、個(gè)人權(quán)利保護(hù)原則的綜合考量,其制定程序應(yīng)當(dāng)遵循公共參與、聽證等行政程序規(guī)則。
最后,德國(guó)的自動(dòng)駕駛汽車程序設(shè)計(jì)倫理規(guī)范是一個(gè)可取的思路。由于人工智能的核心在于算法,算法的設(shè)計(jì)決定著智能化機(jī)器的“行為”。而對(duì)于普通人和大多數(shù)立法者、執(zhí)法者和司法人員來說,算法是一個(gè)“黑箱”,人們只能看到它所導(dǎo)致的結(jié)果,卻無法看到它的運(yùn)作過程。制定相關(guān)規(guī)則來約束算法設(shè)計(jì)者的行為,在發(fā)生可疑后果的時(shí)候要求程序員用自然語言來解釋算法的設(shè)計(jì)原理,并且追究其相關(guān)責(zé)任,這顯然是一種治本之法。但正如德國(guó)模式也只是把這種思路落實(shí)為建議性的倫理規(guī)范一樣,這種規(guī)則變成法律仍有很大難度,需要立法者、執(zhí)法者、司法者和公眾都有一定的人工智能知識(shí),能夠及時(shí)發(fā)現(xiàn)可能由算法導(dǎo)致的危害性后果。在人工智能知識(shí)像“普法”一樣被普及開來之前,一個(gè)過渡性的做法是設(shè)立由相關(guān)領(lǐng)域?qū)<液头陕殬I(yè)人士共同組成的倫理委員會(huì)或“人工智能法院”,按照風(fēng)險(xiǎn)防范而不是糾紛解決的思路來處理相關(guān)規(guī)則的落實(shí)問題。