網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

人工智能技術治理應抓住要害

自ChatGPT-4上線之后,人工智能技術創(chuàng)新浪潮再度掀起,如果說之前還有觀點質(zhì)疑當下并非規(guī)制人工智能技術的最佳時機,那么ChatGPT-4所展現(xiàn)出的高度智能化功能使得這些質(zhì)疑觀點逐漸消散。正如過去各類信息技術發(fā)展規(guī)律,生成式人工智能技術在不斷進行創(chuàng)新的同時,也正在擴大社會風險的波及范圍和損害程度。尤其是在網(wǎng)絡信息內(nèi)容生態(tài)領域,人工智能技術能夠根據(jù)用戶提出的具體需求,在短時間內(nèi)生成海量文本信息、圖片信息乃至視頻信息,一旦這些生成信息在網(wǎng)上傳播,網(wǎng)絡空間將不得不面對新一輪的信息浪潮的沖擊。一方面,生成類信息具有典型的同質(zhì)性特征,加之平臺以用戶偏好推送相關信息,這使得用戶可以獲取的信息內(nèi)容、信息類型均有所衰減;另一方面,人工智能技術所生成的信息越發(fā)貼合人類的表達邏輯,這使得一般用戶無法輕易辨別信息內(nèi)容的真?zhèn)?。當然,人工智能的技術風險遠不止于此。例如,在科研教學領域,人工智能技術能夠成為學生自主學習的輔導工具,但過度依賴人工智能技術完成課程作業(yè)或文獻撰寫,從長遠來看只會削弱學生批判意識和獨立學習能力。在網(wǎng)絡安全領域,人工智能技術已經(jīng)能夠為部分代碼片段編寫提供輔助指導和查漏補缺功能,這無疑會降低惡意代碼編寫的技術門檻與時間成本,進而導致網(wǎng)絡安全態(tài)勢的惡化。

事實上,人工智能技術所引發(fā)的諸多社會風險問題早已不再是理論空想,在當下的社會生活中,已經(jīng)存在濫用人工智能技術進行違法犯罪活動的事件。在今年4月偵破的一起利用人工智能發(fā)布網(wǎng)絡虛假信息的犯罪活動,犯罪嫌疑人為了規(guī)避平臺的信息內(nèi)容審核機制,利用ChatGPT對新聞素材進行修改編輯,上傳至平臺非法獲利。無論是專家學者預估的社會風險,還是現(xiàn)實生活已經(jīng)發(fā)生的犯罪活動,無不說明當下人工智能技術需要規(guī)范治理。國家互聯(lián)網(wǎng)信息辦公室也在4月發(fā)布了《生成式人工智能服務管理辦法(征求意見稿)》,用于指引和規(guī)范生成式人工智能技術的應用活動。

然而,這遠遠不足以規(guī)制潛在的技術濫用風險,傳統(tǒng)的治理理念和治理工具在人工智能技術治理領域正在逐漸失效。其中的原因正是技術服務提供者無法完全控制用戶的使用行為,作為技術工具的人工智能應用,其輸出結果是否合理合法,在很大程度上取決于用戶所輸入的問題和需求。更重要的是,對于部分海外人工智能服務提供者而言,國內(nèi)立法難以在域外予以適用,非法使用者利用境外技術服務從事違法活動,監(jiān)管者往往難以在事前階段就予以預防。繼續(xù)僵化沿用“危險制造者承擔責任”的治理邏輯只會適得其反,既會限制人工智能技術的創(chuàng)新應用,也會浪費既有的社會治理資源。因此,根據(jù)技術創(chuàng)新應用實踐特征,適時調(diào)整治理理念和治理方式越來越重要。

在治理理念層面,首先需要明確的是,人工智能技術治理應當秉要執(zhí)本,優(yōu)先預防和規(guī)制核心的技術濫用風險。在人工智能技術引發(fā)的諸多社會風險中,危害性最大的風險類型當屬網(wǎng)絡信息內(nèi)容生態(tài)風險。AI換臉、AIGC生成仿真照片等信息服務內(nèi)容正在重新塑造網(wǎng)絡信息內(nèi)容生態(tài),這些服務所生成的信息內(nèi)容“半真半假”,這使得用戶更加難以在信息大爆炸時代辨別信息真?zhèn)?。同樣的,平臺運營者乃至監(jiān)管機構也需要花費更多的時間和精力去一一核對這些信息的可靠性與真實性。而人工智能技術所引發(fā)的數(shù)據(jù)安全、網(wǎng)絡安全、算法歧視等風險類型本質(zhì)上并沒有超出現(xiàn)有的技術風險治理框架,數(shù)據(jù)安全法、網(wǎng)絡安全法和《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等法律法規(guī)對此均有提及,并且監(jiān)管機構和平臺也能夠采取技術手段實現(xiàn)高效的事前監(jiān)管效果。進一步而言,人工智能技術治理活動應當分階段、分重點,在不同的技術創(chuàng)新發(fā)展階段,技術風險的類型、特征具有不同特點,倘若“眉毛胡子一把抓”,顯然無法從根本上規(guī)制技術風險,只會讓技術風險危害性逐步加深。因此,在現(xiàn)階段人工智能技術治理的首要任務應當是全面預防和治理濫用人工智能生成違法信息內(nèi)容,保障網(wǎng)絡信息生態(tài)安全。

在治理方式層面,監(jiān)管機構、平臺運營者、技術研發(fā)者以及用戶應當共同參與到人工智能技術治理活動中,以網(wǎng)絡信息生態(tài)安全為基本導向,細化多元主體共治的基本內(nèi)容,避免陷入單一主體承擔責任的治理誤區(qū)。對于技術研發(fā)者而言,應當將技術研發(fā)與安全評估同步實施、同步進行,在相關信息服務商業(yè)化應用之前,進行算法安全風險評估、科技倫理審查,重點對生成內(nèi)容的合法性和可控性進行評估和調(diào)整。對于平臺運營者而言,應當嚴格落實網(wǎng)絡實名制的基本要求,在用戶注冊和使用時,提醒用戶合理使用人工智能信息技術服務。同時,平臺運營者應當定期更新優(yōu)化信息內(nèi)容審核機制,一方面以關鍵詞、圖片自動化識別等方式屏蔽、刪除明顯違法的網(wǎng)絡信息內(nèi)容,另一方面要求用戶在上傳人工智能生成信息時進行標注和說明,用以提示其他用戶該信息內(nèi)容的來源和產(chǎn)生方式。對于監(jiān)管而言,應當適時調(diào)整監(jiān)管模式,除了社會公眾舉報投訴等傳統(tǒng)方式之外,還可以充分利用監(jiān)管技術,以人工智能監(jiān)管技術輔助識別可能涉嫌違法違規(guī)的人工智能生成信息。此外,還需要根據(jù)技術創(chuàng)新發(fā)展趨勢,周期性調(diào)整人工智能技術重點監(jiān)管事項,重視科技倫理審查機制的靈活性,引導人工智能產(chǎn)業(yè)良性發(fā)展。對于用戶而言,應當合理使用人工智能信息服務,樹立法治觀念,充分認識到發(fā)布網(wǎng)絡虛假信息可能承擔的法律責任;也需要保持警惕意識,不輕信非正規(guī)來源的網(wǎng)絡信息,理性發(fā)布網(wǎng)絡評論信息。

人工智能技術治理難以“畢其功于一役”,需要在技術創(chuàng)新發(fā)展的進程中抓住技術風險的主要內(nèi)容和作用方式,適時調(diào)整和更新治理理念和治理方式,方能消解人工智能技術濫用所導致的社會危害性。

[責任編輯:潘旺旺]
標簽: 人工智能   技術治理   ChatGPT   AI