當前,我們正處于人工智能的啟蒙時代。被稱為人類歷史上第四次革命的人工智能,以其迅猛發(fā)展帶動人類社會從信息時代跨入智能時代。這無疑會更加充分地實現(xiàn)人的自由,并帶來前所未有的發(fā)展機遇。但同時,如同硬幣的兩面,機遇總是伴隨著風險。人工智能技術的創(chuàng)新與應用正在逐步改變原有的社會結構,產(chǎn)生新型的社會關系和法律關系,引發(fā)新型的社會沖突。這都在迫使我們?nèi)コ掷m(xù)思考應該如何防范、轉化和規(guī)制人工智能帶來的風險。
人工智能發(fā)展帶來的新風險
人工智能與以往其他革命性技術的不同在于,它不僅具有技術屬性,而且具有社會屬性。正因為如此,人工智能的風險不僅僅集中在技術層面,還滲透于社會和人類生活空間的諸多層面,具有全球性、廣泛性和互聯(lián)性的特征。在諸多風險當中,以下幾種風險尤其引人關注:
技術不確定性帶來的安全風險
人工智能技術起源于二十世紀六十年代,在幾十年的發(fā)展歷程當中經(jīng)歷了三起三落?,F(xiàn)階段人工智能技術的復興,一方面得益于計算機技術快速發(fā)展所帶來的算力提高,另一方面取決于深度學習技術的應用。深度學習是機器學習研究中的一個新領域,其動機在于建立、模擬人腦進行分析學習的神經(jīng)網(wǎng)絡,模仿人腦的機制來解釋數(shù)據(jù)。這是機器學習中一種基于對數(shù)據(jù)進行表征學習的方法。在深度學習模型中,通常人們只需要給定、輸入數(shù)據(jù)和標簽,即可獲得輸出結果。至于網(wǎng)絡中間層的內(nèi)部學習如何進行,在當下的研究階段,人們還不得而知。換言之,機器學習的結果不僅很難直觀解釋,而且很難控制。這種技術不確定性所帶來的風險,使人們恐懼于AI失控所帶來的嚴重后果。尤其是當AI用于軍事、金融、醫(yī)療等高風險領域,一旦實際的計算結果與人們的期待出現(xiàn)較大偏差,產(chǎn)生AI的異化現(xiàn)象,將對社會造成不可預測的負面影響。
不平等的社會效益風險
一直以來,在聯(lián)合國的推動下,各國都在努力彌補數(shù)字鴻溝。然而,現(xiàn)階段的一個普遍現(xiàn)象是:人工智能技術的應用及其與互聯(lián)網(wǎng)公司的深度融合,進一步加劇了互聯(lián)網(wǎng)巨頭公司的信息壟斷和數(shù)據(jù)壟斷,擴大了各階層之間的數(shù)字鴻溝。而在數(shù)字經(jīng)濟形態(tài)下,數(shù)據(jù)已經(jīng)超越了其固有的物理屬性,成為了新的生產(chǎn)要素。數(shù)據(jù)優(yōu)勢在技術發(fā)展的助攻下,可以快速轉換成商業(yè)優(yōu)勢和經(jīng)濟優(yōu)勢,幫助大數(shù)據(jù)持有者以更大的規(guī)模、更快的速度,實現(xiàn)財富集中,形成財富的壟斷。
與此同時,人工智能技術也對現(xiàn)有的勞動力市場造成了沖擊。雖然根據(jù)某些權威經(jīng)濟學家的預測,以未來的視角來看,人工智能技術發(fā)展帶來的新增勞動就業(yè)崗位將抵消由其引發(fā)的失業(yè)現(xiàn)象。然而未來尚未到來,當下的失業(yè)問題卻已擺在人們面前。在各大銀行的分支機構中,原來的柜員已悄然削減,取而代之的是智能化柜員機器人;在許多停車場的出入口,收費人員被解雇,因為自動化付款模式不再需要他們的出現(xiàn)。最近,麥肯錫的一份報告透漏,2018年,人工智能驅(qū)動的自動化導致德國和美國三分之一的勞動力重新尋找工作。這與上述巨額財富向少數(shù)人手里集中的現(xiàn)象形成了鮮明的對比。
法律制度缺失的風險
正如德國社會學家烏爾里希•貝克在《風險社會》一書中所表述的那樣:當代社會的本質(zhì)是“風險社會”,科技風險是風險社會的重要內(nèi)容。而科技風險的產(chǎn)生,一方面是由于科學技術本身的發(fā)展造成的,另一方面則是由于制度在回應科技發(fā)展過程中的缺失。換言之,科技風險與制度風險是共生的、一體的。這是導致現(xiàn)代社會高風險的重要原因。
人工智能風險無疑屬于風險社會中科技風險的范疇。作為現(xiàn)代社會治理的最主要方式,法律遵循著自身固有的屬性與腳步,習慣于對科學技術發(fā)展產(chǎn)生的社會問題作出緩慢和滯后的回應。法律的穩(wěn)定性和滯后性,與人工智能技術的快速發(fā)展及其由此而產(chǎn)生的新的法律需求,形成了強烈的對比。2017年10月,當人們還在討論人工智能是否具有人格時,沙特阿拉伯已經(jīng)授予機器人索菲亞公民身份。而更加讓人驚詫的是,這個世界上第一個機器人公民卻揚言要毀滅全人類。在自動駕駛領域,技術創(chuàng)新和秩序安全兩種價值始終在進行博弈。除了少數(shù)國家頒布了無人駕駛新立法,大多數(shù)國家的交通法律制度還停留在前互聯(lián)網(wǎng)階段。但無人駕駛的車輪已經(jīng)越走越遠,即便世界范圍內(nèi)已經(jīng)出現(xiàn)了多起無人駕駛引發(fā)的交通事故,也未能阻擋新的嘗試。此外,侵權的責任如何界定也尚未清晰。類似此種法律制度的缺失,包括智能系統(tǒng)生成的作品著作權問題、強制保險問題、隱私問題、算法的透明度問題等。這些不是個別部門法需要面臨的難題,而是幾乎全部法學領域均有涉及的全局性問題。
完善人工智能相關立法的幾點思考
談及人工智能的規(guī)制構建問題,法律人其實并不孤獨,國際關系學者、倫理學家、政治學家等多個領域的社會學者都沖在研究和實踐的第一線。雖然法律并不是現(xiàn)代文明社會唯一的治理和調(diào)解方式,但卻是最主要和最有效的方式。在新的治理方式取代法治治理之前,人類社會應該致力于完善人工智能相關的法律規(guī)制,為人工智能發(fā)展制定規(guī)則的邊界。這是一項繁雜且重要的任務,不可能一蹴而就。為此,在立法初始階段,對一些基本范疇的思考,具有極其重要的意義。
人工智能立法要兼顧安全與發(fā)展
正如著名法學家徐顯明曾經(jīng)闡述的那樣,自人類社會開始構建規(guī)則以來,安全始終是人們追求的第一價值目標。社會秩序安全是技術發(fā)展的重要保證。立法者不僅要考慮安全的價值,也要從產(chǎn)業(yè)促進的角度進行考量。在進行人工智能立法時,尤其要進行安全與發(fā)展的價值衡量。這是因為人工智能技術已經(jīng)成為世界主要大國的戰(zhàn)略性技術,對一國的發(fā)展至關重要。如果過于嚴格的立法阻礙了本國人工智能技術和產(chǎn)業(yè)的發(fā)展,勢必會使國家在大國競爭的時代處于不利的地位。
2018年5月5日,歐盟《通用數(shù)據(jù)保護條例》生效。這是迄今為止世界范圍內(nèi)最為嚴格的個人數(shù)據(jù)保護法案,引起了廣泛的關注。然而我們也應該看到,歐盟正在積極推進立法促進人工智能的發(fā)展。相比之下,美國一直以來都比較偏重于對人工智能技術研發(fā)和產(chǎn)業(yè)的促進與保護。這從美國最近的兩個司法判例中可窺見一斑。在路米斯訴威斯康辛州法院的案件中,法院支持算法屬于商業(yè)秘密。在搜索王訴谷歌的算法第一案中,法院認為網(wǎng)頁排名是一種意見,支持了谷歌認為算法是言論自由的主張,將算法置于美國憲法第一修正案的保護之下。在中美博弈的大背景下,中國的立法更應該科學協(xié)調(diào)安全與發(fā)展這兩對范疇,做到保護人們基本權利和促進人工智能發(fā)展相統(tǒng)一。
“傳統(tǒng)法+”與分散式立法
在實現(xiàn)真正的超人工智能前,人工智能還要經(jīng)歷專門人工智能和通用人工智能階段。專門人工智能僅具備某項認知能力,能夠在封閉的環(huán)境中實現(xiàn)單一任務。通用人工智能具備人類的所有認知能力,可以由同一個智能系統(tǒng)實現(xiàn)不同的認知任務。而超人工智能將在所有認知能力和領域全面超過人類。目前,我們正處于專門人工智能向通用人工智能轉變的時代,語音識別、圖像識別、智能金融等仍舊屬于專門人工智能的應用。
立法者在構建人工智能法律體系時,雖然可以具備一定的前瞻性和先進性,但必須立足于人工智能現(xiàn)在的發(fā)展階段。也就是說,立法必須是現(xiàn)實的,作為上層建筑的法律體系,必須根據(jù)科學家對人工智能的賦能現(xiàn)實而制定。在專門人工智能階段,人工智能更多程度上仍舊是實現(xiàn)人類自由的一種工具,雖然現(xiàn)有的法律體系面對人工智能引發(fā)的新型法律關系產(chǎn)生了一定的法律空白,但并不是所有的人工智能問題都是法律上的新問題。相反,在專門人工智能階段,大部分的問題仍舊可以置于原有的法律框架之下。而對于新問題的規(guī)制,相較于集中式立法的模式,更適合采用分散式立法的方法來推進。這并非頭痛醫(yī)頭、腳痛醫(yī)腳的雜亂安排,而恰巧是科學立法的貫徹和實施。具體來說,一是因為人工智能在每個領域的發(fā)展與應用程度并不相同,對法律原則和規(guī)則的需求不同;二是因為集中式立法對于立法技術、人力和物力有著更高的要求,往往也需要花費更多的時間,顯然與人工智能技術的快速發(fā)展不相符。
積極參與人工智能國際立法
在傳統(tǒng)社會,風險具有地域性,風險在地緣因素的影響下傳播。然而,現(xiàn)代社會的技術、人才、資本、文化等要素在全球范圍流動,全球化的發(fā)展使風險跨越了國界,風險全球化成為風險社會的重要特征。人工智能帶來的軍備競賽、核武器風險增加、人權保護等問題,只靠國內(nèi)機制顯然得不到有效解決,應該放在國際治理的角度下進行討論。
與國際法在網(wǎng)絡空間適用的問題具有相似性,國際法在人工智能領域的適用,也面臨著兩個基本問題:第一,原有的國際法規(guī)則是否適用于人工智能相關問題,即既有規(guī)則的繼受問題;第二,如何構建新的人工智能國際規(guī)則。2013年,第三屆聯(lián)合國信息安全政府專家組通過報告,確認國際法特別是《聯(lián)合國憲章》適用于網(wǎng)絡空間,并且宣示:國家主權和源自國家主權的國際規(guī)范和原則適用于國家進行的信息通信技術活動,以及國家在其領土內(nèi)對信息通信技術基礎設施的管轄權。借鑒此結論,對于在人工智能領域原有國際規(guī)則的繼受問題,答案也應該是肯定的。當然,這并不妨礙在國際法的立法真空地帶,針對新的人工智能問題構建新的國際規(guī)則。然而,對于如何在人工智能領域?qū)υ袊H規(guī)則進行解釋,即到底如何適用原有規(guī)則,以及如何構建新的國際規(guī)則,各個國家基于不同的法律文化和本國利益,持有不同的觀點,仍舊處在激烈的討論和博弈階段。中國作為世界第二大經(jīng)濟體和聯(lián)合國常任理事國,特別是人工智能技術和產(chǎn)業(yè)蓬勃發(fā)展的國家,應該積極參與到人工智能國際規(guī)則的解釋與制定當中,體現(xiàn)我國的軟實力。
總而言之,法律并非一成不變,法律的生命力體現(xiàn)在其融合時代的不斷演進之中。法律規(guī)制只有不斷進行調(diào)整,才能回應人工智能對法律制度帶來的挑戰(zhàn),最終形成人工智能時代的法律體系。
【本文作者為中國電子科學研究院研究員、美國福特漢姆大學訪問學者】
責編:趙博藝 / 蔡圣楠