網站首頁 | 網站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

構建“以人為本”的人工智能治理體系

近年來我國人工智能技術快速發(fā)展,技術自主性也不斷提高。高度普及的移動網絡終端催生了萬物互聯(lián)的數據技術,算力和存儲從用戶端向云端轉移降低了步入數字生活的門檻,深刻改變了人的生產生活方式。目前人工智能已經普遍應用于社會生活的各個方面,從出行路徑規(guī)劃、網絡購物選擇到知識內容獲取、信貸申請審批,人工智能也在改變人類慣常的決策方式,但在提高效率的同時也帶來了系統(tǒng)性的問題,比如人工智能技術不夠安全、穩(wěn)定,影響了系統(tǒng)的可靠性;人工智能決策目標單一,難以滿足多元的社會需求;人工智能使用的數據和模型復雜不透明,結果難以解釋等。

揭開人工智能的面紗,不斷解決其發(fā)展應用中的諸多挑戰(zhàn)和問題,是人類社會的共識。我國近年來不斷加強對人工智能治理的要求,結合我國實際情況出臺了《新一代人工智能倫理規(guī)范》《關于加強科技倫理治理的意見》《互聯(lián)網信息服務算法推薦管理規(guī)定》等一系列政策規(guī)范,確立了我國人工智能倫理治理的核心目標和基本原則,創(chuàng)設并完善了人工智能影響評估、備案、分級分類等治理管理工具,引導科技企業(yè)評估人工智能技術研發(fā)應用風險,健全全生命周期倫理治理體系,為社會提供更為安全、更負責任的人工智能產品服務。

幫助提高人的勞動效率,增加勞動價值。人工智能技術本身處在快速發(fā)展的過程之中,從專家系統(tǒng)到深度學習、從有監(jiān)督學習到無監(jiān)督的自主學習,機器在不斷模擬人類智能的過程中智能化水平不斷提高,對人的勞動方式和價值實現(xiàn)產生了影響。一方面,人工智能創(chuàng)造了新的生產生活方式,促進了職業(yè)模式的創(chuàng)新,新業(yè)態(tài)的產生帶來了新的就業(yè)機會。比如,通過人工智能技術對分散的勞動資源進行線上化整合和實時性調度,催生了網約車司機、外賣配送員等新職業(yè),通過連接消費者、商戶建設起共享性的零工經濟,但新的勞動生產方式也帶來了勞動保障不足、勞動權益被忽視等問題。另一方面,人工智能降低了知識獲取和利用的門檻,對部分傳統(tǒng)勞動產生擠出效應和替代效果,例如自然語言學習算法的不斷優(yōu)化讓人工智能系統(tǒng)的語音轉譯、外語翻譯能力有了顯著提升,目前線上會議軟件已經實現(xiàn)了實時記錄和翻譯功能,提高了對會議內容的記錄效率,但也一定程度上降低了對速記、翻譯等人員的需求。總體來看,人工智能技術目前在創(chuàng)造性、感知性等方面和人類智能還有較大的差距,完全替代人類的強人工智能尚不具備可能。但人工智能技術會持續(xù)影響人類的知識學習和生產工作方式。一是人工智能技術的發(fā)展可能將替代部分重復性高、規(guī)律性強的人類勞動;二是創(chuàng)造新的、非傳統(tǒng)的工作形態(tài),影響現(xiàn)有的勞動價值分配方式和勞動保障制度;三是可能擴大技術賦能與技術失能兩大群體間的差距。人工智能治理需要關注其對人的勞動的替代以及對勞動價值的影響,讓技術方案更便捷、友好、易用,幫助更多的人提高勞動效率;同時,進一步完善針對新就業(yè)形態(tài)的勞動保障,讓人工智能驅動的勞動者享受到更為充分全面的勞動權益保障。

尊重人的權益,做到有克制、不傷害。隨著人工智能的廣泛應用,人工智能下的公共決策更加精準,人們生活更為便捷,社會效率也得到提升,但技術滲入社會生活也改變了人們的溝通交流方式,產生了一系列新問題、新挑戰(zhàn)。一是個人隱私受到威脅。和物理空間一樣,數字社會中人們的隱私也受到保護,但人工智能技術需要大量的數據進行模型訓練,不加約束地收集和利用數據侵入了人們在數字社會中的隱私空間,對數字身份帶來了安全風險。二是公平公正難以保障。當人工智能被用于調配生產生活資料、分配社會資源的時候,人們期待其能夠做出公平、不帶偏見的決定。然而受制于有限的數據分布和數據質量,以及在模型設計和部署實施中的人為錯誤,人工智能存在難以避免的偏差,而當被用于決定資源分配的時候,技術的偏差就可能造成結果的不公平。三是信任機制存在缺失。人工智能系統(tǒng)的設計、部署和應用比較復雜,機器學習更增加了技術的不透明性,給人們留下了“黑箱”的印象,普通用戶很難理解人工智能系統(tǒng)如何做出決策,當決策影響到其權益的時候,也很難要求說明、提出申辯、獲得救濟,往往是被動接受而不是主動選擇人工智能的決策結果。

人工智能治理需要重點關注人工智能對隱私、公平的侵犯,提高人工智能技術的透明度,讓包括數據使用、模型設計、影響評估等在內的人工智能決策過程更清晰、可解釋,為人們提供溝通反饋的渠道、并對產生的負面效果提供及時充分有效的救濟,變人工智能“黑箱”為好用、受信任的“工具箱”。

促進社會包容可持續(xù)發(fā)展。當人工智能成為人類社會生產生活的基本工具,除了考慮此項技術當前的問題,還需面向未來,探討其在中長期對人的生存和發(fā)展帶來的影響。在環(huán)境保護方面,人工智能技術可以讓能源的生產和使用符合可持續(xù)發(fā)展目標要求,比如通過控制物聯(lián)網設備實現(xiàn)實時的能源消耗調節(jié),幫助創(chuàng)建更為智慧和低碳的城市;通過智能電網整合可再生能源,實現(xiàn)更為穩(wěn)定的替代電能供應;利用圖像識別技術實時監(jiān)控分析衛(wèi)星圖,確定荒漠化和海洋污染情況,并提出針對性的方案。但同時,人工智能技術的發(fā)展也推高了能源消耗,比如適用于自然語言處理的預訓練大模型,在訓練過程中算力消耗較大,帶來了過多的碳排放。在人的發(fā)展方面,人工智能以及更為廣義的數據智能改變了人認識和理解世界的方法,在不同的領域驅動新的創(chuàng)新和創(chuàng)造。目前在醫(yī)學領域,通過人工智能設計藥物分子式、預測藥物的理化性質和生物活性,節(jié)約了大量的實驗成本,而圖像識別技術應用于醫(yī)學影像分析也會大大提高了診療的準確性。在文化領域,人工智能創(chuàng)作音樂、影視作品的藝術表現(xiàn)力不斷提高。但上述應用對藥物研發(fā)和診療監(jiān)管、知識產權等針對創(chuàng)新活動的監(jiān)管制度也帶來了挑戰(zhàn),以人的創(chuàng)新為對象的治理體系難以適配人工智能驅動的創(chuàng)新。因此,從長期來看,人工智能的發(fā)展需要充分考慮可持續(xù)發(fā)展目標、推動創(chuàng)新創(chuàng)造,人工智能的開發(fā)使用者應當主動承擔社會責任,讓技術應用服務更為先進的生產力;另一方面,也需要調整現(xiàn)有制度,以適應人工智能對人的生產發(fā)展帶來的積極改變。

構建“以人為本”的人工智能治理體系,讓人工智能堅持以人為中心的價值目標,需要多方協(xié)同、共商共治。政府應當做好頂層設計,確定人工智能發(fā)展的價值目標和治理的總體要求,加強對影響隱私、公平等權益的人工智能的監(jiān)督管理,在勞動保障、環(huán)境保護、知識創(chuàng)新等方面引導人工智能的發(fā)展方向。企業(yè)應該強化審慎自律,加強人工智能倫理教育培訓,對人工智能進行全生命周期管理,防范人工智能對人帶來的各種風險,開發(fā)和利用更負責任的人工智能。社會應當增進對人工智能技術的理解,對人工智能治理形成共識,積極反饋意見、提供建議,讓每一個人成為人工智能的使用者、受益者,也讓每一個人成為人工智能的設計者、治理者。

[責任編輯:潘旺旺]