從導航軟件中的“數(shù)字人”指路,到直播電商中的“虛擬主播”,再到最近爆火的ChatGPT,隨著深度學習技術的快速演進和數(shù)據規(guī)模的快速增長,人工智能的應用已經滲入了我們日常生活的方方面面,尤其是不斷被運用于寫作、繪畫、編曲和視頻制作等創(chuàng)造性生產領域。這些人工智能“創(chuàng)作”物,極大地提高了行業(yè)生產效率,但也隱藏著法律與倫理的挑戰(zhàn)。
人工智能生成的畫面、文字等內容有版權嗎?這是我們需要首先思考和回答的問題。能否享有版權,取決于“創(chuàng)作”物是否構成著作權法意義上的“作品”,即是否具有獨創(chuàng)性。如果人工智能“創(chuàng)作”物符合著作權法的規(guī)定而享有版權,那么權利主體是誰?根據法律規(guī)定,一般作品的著作權歸屬于作者,但人工智能本身、人工智能的設計者、研發(fā)者、投資者、管理者、實際操控者等在作品的創(chuàng)作過程中均發(fā)揮著重要作用,權利的歸屬如何確定或分配,目前也尚無明確規(guī)定。
分析人工智能“創(chuàng)作”的過程可知,部分人工智能“創(chuàng)作”物的確涉及人類思想表達,如果具有獨創(chuàng)性和可復制性,就可以滿足成為“作品”的要求,應當享有版權。目前已有許多國家將人工智能創(chuàng)作的內容納入版權法的保護范圍,而版權的歸屬應當屬于自然人。這是因為,人工智能“創(chuàng)作”物看似機器生成而非人類直接完成,但其實質卻是應用算法、規(guī)則和模板的結果,當前人工智能創(chuàng)作主要包括訓練數(shù)據輸入、算法模型構建和最終結果生成階段,無論是訓練數(shù)據外部調整還是算法模型人工糾偏,人工智能創(chuàng)作依舊處于自然人的控制之下,人工智能創(chuàng)作無法脫離自然人的智慧支持,可以被視為自然人先前智力成果的延伸,體現(xiàn)的是開發(fā)者的思想與腦力勞動。而權利主體的確定可以考慮合同約定優(yōu)先,以使用主體為中心和以投資主體為補充。
人工智能“創(chuàng)作”過程產生權利侵犯問題怎么辦?人工智能的創(chuàng)作行為嚴重依賴于數(shù)據源,智能機器人要通過一定的程序進行“深度學習”“深度思維”,在這個過程中有可能收集、儲存大量的他人已享有著作權的信息或個人隱私信息,這就有可能構成對他人著作權或隱私權的侵害。那么,誰需要為人工智能創(chuàng)作的權利侵犯問題承擔責任?是為人工智能創(chuàng)作算法編程的技術人員,還是為人工智能創(chuàng)作注入資金的投資主體,抑或實際使用人工智能創(chuàng)作的用戶群體?這是相關領域立法需要充分考量的問題。另一方面,技術的誤用或濫用也可能滋生違法犯罪行為。如今,有的人工智能學習生成的內容在形式和邏輯上足以“以假亂真”,倘若技術被誤用、濫用,比如被用于抄襲、詐騙等,甚至可能被用于危害個人生命財產安全、國家安全和社會公共利益。因此,有必要構建人工智能“創(chuàng)作”的規(guī)范標準,對相關技術使用者的行為形成有效約束,有效規(guī)制減少、防范智能內容科技應用可能帶來的負面影響。
具體來說,一是明確人工智能創(chuàng)作的合理使用范疇,打破人工智能創(chuàng)作的算法黑箱,并實行差異化歸責原則。著作權法規(guī)定的合理使用是指在特定情況下使用作品,可以不經著作權人許可,不向其支付報酬,但應當指明作者姓名或者名稱、作品名稱,并且不得影響該作品的正常使用,也不得不合理地損害著作權人的合法權益。人工智能“創(chuàng)作”必然需要學習海量的關聯(lián)性知識,方能組織、推理和生成最終的輸入結果。為促進人工智能創(chuàng)作的良性發(fā)展,可以將人工智能的創(chuàng)作過程納入著作權法的合理使用范疇,但要將人工智能創(chuàng)作故意復制、惡意使用等情形排除在外。二是數(shù)據隱私、平等權的保護需要堅持算法透明原則。目前,我國個人信息保護法明確了依法使用個人信息的情形,個人有權要求個人信息處理者對其個人信息處理規(guī)則進行解釋說明。在這些規(guī)定的基礎上,人工智能創(chuàng)作主體應當公開個人數(shù)據處理規(guī)則,明示處理的目的、方式和范圍。三是人工智能創(chuàng)作如果發(fā)生侵權行為,需要相關的自然人主體承擔責任。人工智能創(chuàng)作各個階段對應著不同的責任主體,基于技術責任承擔與內部追責視角的分立,需要實行差異化歸責原則,技術主體偏重于算法設計和數(shù)據處理責任,使用主體和投資主體偏重于核驗檢查和終端更正責任。
人工智能進行“創(chuàng)作”,會影響自然人的法律主體地位嗎?面對人工智能日益頻繁和廣泛的“創(chuàng)作”活動,有人擔憂這是否會壓制甚至取代自然人的法律主體地位。針對這一問題,我們需要回歸“法律主體”的內涵和價值來分析。法律主體地位是法律意義上人的抽象和虛擬,是指法律賦予自然人和社會組織依法承擔責任、享有權利的資格,因此,法律的建構始終要以人為中心。在關于人工智能“創(chuàng)作”物的法律規(guī)制問題上,需要圍繞保障個人權利進行,注重維護自然人的主體地位。2022年,深圳制定實施了我國第一部人工智能產業(yè)專項立法——《深圳經濟特區(qū)人工智能產業(yè)促進條例》,其他地方的有關條例也正在制定過程中,這些地方立法均強調了“以人為本”的原則,通過法律規(guī)則盡可能削弱人工智能可能帶來的風險。隨著人工智能技術的不斷快速發(fā)展和更新迭代,新問題也會隨之而來,這需要法律與時俱進,并與技術、倫理等專業(yè)層面協(xié)同互補,在擁抱人工智能變革、大力發(fā)展產業(yè)的同時,著力平衡產業(yè)發(fā)展與社會安全,確保其安全、可靠、可控。