今年5月,人工智能圍棋程序“阿爾法狗”與世界圍棋第一人柯潔之間展開一場“人機大戰”,結果人工智能以3:0的成績完勝人類棋手,引發關于未來人工智能取代人類的討論。如今,人工智能炙手可熱,今年3月,“人工智能”首次進入《政府工作報告》。人工智能變得“擬人”和“超人”,人們越是對其依賴和贊嘆,越是恐慌不安。現實中,人工智能對現行法律制度的挑戰已初露端倪,而未來如果人工智能具有自主性和情感,其法律地位及與人的法律關系定位將成為難題。近日由亞太網絡法律研究中心主辦、在北京師范大學舉辦的“網絡與法律對話”學術沙龍上,來自法學界、網絡安全界的專家學者圍繞人工智能發展帶來的法律挑戰等問題展開了探討,為應對未來挑戰提供了對策與建議。
人工智能被列入各國戰略
胡鋼 (中國互聯網協會研究中心秘書長)
人工智能(artificial intelli-gence)近年來大熱。聯合國國際電信聯盟剛剛在日內瓦召開了主題為“人工智能造福人類”的全球峰會,這是一個非常恢弘的題目。
峰會有兩個目的,一是加速人工智能的研發和應用,以應對貧困、饑餓、健康、教育和環境保護等全球性挑戰;二是探討如何確保人工智能的安全性并符合倫理規范,防止其帶來意想不到的后果。
聯合國層面對于人工智能是非常重視的,此前,聯合國也有專門的報告。例如,聯合國教科文組織與世界科學知識與技術倫理委員會2016年的報告就主要討論了機器人的制造和使用促進了人工智能的進步,以及這些進步所帶來的社會與倫理道德問題。
美國而言,特別是奧巴馬時代,美國發布了若干關于人工智能的文件。立法方面,僅在今年,美國國會就提出了三部含有“人工智能”的法案,包括《2017創新團法案》、《2017全民計算機科學法案》及《2017在科學技術工程及數學領域中的計算機科學法案》。上述三部法案分別關注了人工智能技術對美國人生活質量的改善價值及可能對部分工作的替代作用,并要求商務、教育等部門加強有關職業培訓或者中學生的計算機科學教育,其中就特別包括了人工智能的內容。
歐盟在數年前就開始了有關機器人計劃及人腦計劃,力爭使歐盟在這兩個關鍵領域處于全球領先位置,并充分認識到標準、規范和立法的保障措施將是有關工程的重
要組成部分。去年,歐洲議會提出一項草案,建議賦予機器人基本的“勞工權利”,讓這些為人類服務的“電子人”今后也能享有薪酬、版權保護和社會保險。雖然爭議很多,但非常值得關注。又如,歐盟2012年開始做了一個“RoboLaw”(機器人法律)的項目,已于2014年結束。該項目主要研究對歐盟機器技術規制與倫理、法律及經濟的影響。
今年3月,中國首次將“人工智能”寫入《政府工作報告》。李克強總理2017年3月5日在第十二屆全國人民代表大會第五次會議上指出:加快培育壯大新興產業。全面實施戰略性新興產業發展規劃,加快新材料、新能源、人工智能、集成電路、生物制藥、第五代移動通信等技術研發和轉化,做大做強產業集群。人工智能在中國同樣是一件炙手可熱的事情,聚集了眾多的眼球、人才和資金。
雖然人工智能這個概念提出來已經有六十年了,時間很長,但是它現在這種自我學習能力,特別是機器學習能力的發展到了以前完全不可比擬的階段。中國目前對人工智能的政策法律分析已經有了良好的開端,這方面我們要做的事情還有很多。
人工智能尚未改變現有法律關系
續俊旗 ( 因特爾法律政策總監 )
人工智能是當前的熱點和焦點議題,一個重要的原因是在應用上有了較大的突破,比如在自動駕駛、無人機、精準醫療等方面,都取得了實質性的進展。我了解到工信部在牽頭制定一個人工智能的國家戰略,繪制人工智能產業生態地圖,并發布人工智能白皮書。目前,關于人工智能的產業聯盟也在籌建之中。在人工智能領域,中美兩國目前走在前列。美國已經出臺了人工智能研發戰略,而且其發布的其他戰略比如大數據發展戰略也與人工智能緊密相關。可以說人工智能已經成為兩國產業發展的制高點,未來的競爭態勢也會趨于激烈,這將有助于人工智能的進一步快速發展。
當前人工智能發展很快,有幾個主要原因:首先,大數據的發展。數據是人工智能發展的前提,越來越多的應用場景產生了海量的數據,為人工智能的應用落地提供了寶貴的素材。其次,新的算法技術進一步提升了人工智能的發展。人工智能不是新事物,但由于算法技術的發展,包括與神經學科、生物醫學學科等的交叉融合,人工智能越來越具備人的特征。第三是計算能力的快速發展。
人工智能的飛速發展,帶來了應用的快速落地。但正如硬幣具有正反兩面,人工智能也是如此。一方面它降低了風險,另一方面也帶來了新的風險。以自動駕駛為例,一方面可以顯著降低由于人工駕駛產生的疲勞駕駛、誤操作帶來的交通致死率,另一方面也可能因為網絡侵入造成慘烈的交通事故。這時候就需要不斷地進行場景測試驗證,并賦予人工智能最為合理的選擇方案來取得最佳平衡。
人工智能的發展,將會對社會治理、法律制度、監管乃至社會倫理等產生影響。比如,隨著人工智能的高度智能化,機器越來越具有人的屬性,可能對婚姻制度、家庭倫理等產生大的影響。對于社會治理、法制制度、政府監管等,也會有越來越多的挑戰。目前還是處于前期階段,我們還不能對這些問題有系統性的認識,但可以做一些前瞻性的研究,并作出預判。
人工智能會給法律造成影響。我們不會去制定一部人工智能法,而是在不同領域、不同產業,探究人工智能的發展對該領域、產業的影響。哪些可以適用現有法律規則,哪些需要對現有制度進行修正,甚至制定新的法律規則。
人工智能會給法律制度帶來挑戰,但現階段無需過于擔心。其實,它沒有從根本上改變現有的法律關系。法律關系是在社會活動中人與人之間產生的權利義務的分配關系。人工智能迄今還是一個輔助工具,其產生的問題,比如自動駕駛的侵權問題,歸根結底還是可以在自動駕駛方案提供者、汽車廠商或者使用者之間進行歸責而解決。未來也許人工智能通過不斷學習會產生新的法律關系主體,但是這會是一個過于遙遠的話題。總之,人工智能的法律挑戰是一個既有現實性也具有前瞻性的話題,現在希望給出系統的法律解決方案、監管框架乃至監管模式都還為時過早。
“時空壓縮”疊加人工智能的風險
劉金瑞 ( 中國法學會法治研究所研究員 )
討論需要一個前瞻性,也需要一個限制性。對于將來發生的事情我們可以做一個探討,但也不必遙遠到科幻甚至玄幻的程度,這是我的一個基本判斷。從法律角度看,考慮到自主意識,我認為人工智能發展要分為三個階段:
第一階段,AI處于增強輔助人類的階段。這個階段不管是siri也好其他也好,還是純粹工具的階段,對它的使用是為了增強人類本身;
第二階段,AI與人類共生共存。這個階段比起上個階段,人類離不開它了,人類對人工智能產生深刻的依賴;
第三階段,AI可能會控制人類。這個就到了我所說的科幻玄幻階段了,電影里面也有所呈現。而這個場景是否會發生,也是我們人類在思考的一個問題。
目前我們處于第一階段,機器還屬于工具,當前的法律屬于基于自己的自主行為,我們討論的問題都屬于第一階段。如今中國的發展處于一個時空壓縮的階段,其特點在于我們需要在短時間內走過一些國家很長時間里走過的很多路,并且還要面對一系列新問題,比如技術應用、法律問題、社會問題的疊加。我國要關注的幾個最主要的問題是:
第一,人口問題:機器人的使用和人工智能的使用對我們人口老齡化或者人口未來結構調整有什么影響;
第二,法律問題:在我們目前處于的第一階段,人工智能仍然是人類的工具,就像侵權責任法中的物件責任,物體傷害了別人,還是需要你負責。法律只需做細微的調整就可以適應人工智能帶來的法律問題,特殊產品責任、知識產權、大數據等都是常見問題;
第三,財務分配問題:隨著機器生產能力的提升,生產力得到了較大的解放,我們會對馬克思經濟學產生新的理解,對未來財務分配產生新的思考,比如人類是否還為了生存而工作將成為值得思考的問題。
由第一階段邁向第二階段的時候,程序員的作用十分關鍵,人類可能只有一次機會設定程序,這個初始設定是很重要的。我們給機器人設定的紅線是什么?人類的價值觀能不能教給機器?機器會不會嚴格執行?計算機成為一個嚴格的執法者會不會對人類造成傷害?這些都是我們要討論的問題。
控制引導人工智能的發展
劉德良 (北京師范大學法學院教授、亞太網絡法律研究中心主任)
從當前技術的發展和人工智能概念的界定等方面來看,人類已經邁入人工智能時代了。從技術上來講,人工智能原本是作為人類的工具被開發設計出來的,但是在未來有沒有一種可能,人工智能會超越工具的范疇,站在人類的對立面?
國際競爭層面,中國、美國和歐洲等在國家戰略和產業發展方面存在博弈,比如當前美國對人工智能的態度是扶植這個產業的發展。如果放在整個人類層面,人工智能會不會被一些別有用心的人開發設計出來,最后致使人類無法控制?既然人工智能的開發與利用在未來有這種不可控的可能性,那么人工智能作為一個策略,國家產業發展政策或者整個人類社會該怎樣去引導?顯然當我們所站在的利益層面不一樣,從不同的格局來看待,人工智能確實會帶來一些問題,特別是當人工智能有情感、有意識并有自我學習能力的時候。將來一些婚姻倫理問題、情感問題,諸如人類和機器人結婚,在立法上可以不承認,但是當這些確實又存在,就會成為一個問題。
從現階段來看,人工智能仍然屬于一種工具層面的東西。如果從法律層面如民法層面上講,我們可以把它作為一種工具,一種物。但是對于其中一些有特殊情感的人工智能,在立法上我們將其作為一種特殊物來對待。當我們站在未來發展的角度來講,我們現在對A I產業發展的規制,就是要保障未來人工智能能朝著一個健康的、可預測的方向發展,所以人工智能發展一定需要國家政策的監管和引導。
人工智能最關鍵的東西,實際上就是它的算法。未來,我國乃至整個人類社會如何實現對這個算法的監管,讓它朝著一個安全可控的方向去發展?當然在研究這個算法的時候不僅需要相關領域的技術專家,還需要社會學等專家學者的共同參與,從而保障它的安全可控。宏觀上,我認為整個國際社會都應該朝著這個方向努力。
從民法層面來講,人工智能不僅會產生人工智能致人損害的問題,還包括人工智能被損害的問題。其被損害的不僅是硬件,可能還有軟件,比如非法入侵對人工智能造成損害的,未來還有人與人工智能共同生活時,人工智能遭受侵害的。按照我的理解,人工智能實際上就是民法上的特殊物,那么他人造成人工智能損害的,不僅要給予其物質損害的賠償,還應當給予其精神損害賠償。
在人工智能產業的發展中,不僅會發生人工智能被侵入、人工智能的程序被修改等人工智能遭受他人侵害的問題,還包括第三人介入的損害。這就需要在人工智能產業發展的時候注重信息安全,防止非法侵入。人機接口、人機混合體其實是我最擔憂的。人機混合體在未來的發展要不要受到控制,要不要受到引導?要的話,我們怎樣去控制、怎么樣去引導?
當前的很多問題都可以用我們原有的法律框架來解決。但是人工智能也確實引發了一些新的問題,尤其是在政策引導、國家層面的、國際戰略上的新問題。我們國家將來在這些方面要能夠起到一些引導作用,而非跟著別人走。來源: 南方都市報 <http://epaper.oeeee.com/epaper/A/html/2017-07/02/content_43632.htm>2017-07-02