網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

倫理學視域下的人工智能發(fā)展

近年來,人工智能技術在諸多領域不斷取得重大突破,其發(fā)展速度之快、影響程度之深前所未有,在給現(xiàn)代生活帶來極大便利的同時,也留下了一些可能危及人類生存的重大風險。如何能夠在充分享受科技發(fā)展帶來的巨大紅利的同時有效防范其潛在風險,已經(jīng)成為人工智能發(fā)展面臨的關鍵問題。為此,我國先后出臺了《新一代人工智能治理原則——發(fā)展負責任的人工智能》(2019年)、《新一代人工智能倫理規(guī)范》(2021年)、《關于加強科技倫理治理的意見》(2022年)和《科技倫理審查辦法(試行)》(2023年),力圖通過人工智能與倫理的有機結合,引導人工智能走上“科技向善”的健康發(fā)展道路。人工智能與倫理的有機結合,可以從倫理辯護、倫理治理和倫理創(chuàng)新三個維度展開。

發(fā)展人工智能需要理性的倫理辯護

在進入現(xiàn)實生活前,人工智能就以“機器人”形象活躍于文學作品之中。無論在舞臺劇、科幻小說還是科幻電影中,人工智能都曾被賦予一種由人類創(chuàng)造但反過來傷害人類的異化性質(zhì)。這種將人工智能妖魔化的文學想象,體現(xiàn)了人類對于人工智能的深層憂慮。究其原因,乃在于人工智能可能擁有比人類更為強大的力量,進而出現(xiàn)反過來傷害人類的巨大風險。在現(xiàn)實生活中,人工智能阿爾法狗戰(zhàn)勝世界圍棋冠軍,工業(yè)機器人搶占人類勞動崗位,大語言模型不斷生成媲美人類專家的行業(yè)作品,進一步加劇了人類對人工智能的擔憂,甚至引發(fā)了一些抵制人工智能的行為。過度擔憂和盲目抵制,可能會阻礙人工智能的正常發(fā)展,影響人類充分享受現(xiàn)代科技進步帶來的生活便利。要消除這些不必要的擔憂,就需要對人工智能進行理性的倫理辯護,確定人工智能的倫理正當性。

人工智能的倫理正當性在于它能夠造福人類,能夠提升勞動生產(chǎn)力以創(chuàng)造人類的幸福生活。與其他科技產(chǎn)物相比,人工智能具有非常獨特的功能,它能夠模擬人類的智能,既可以進行智能式的計算,也可以完成智能式的動作,其部分體力能力(如力量和速度)與智力能力(如記憶和計算)甚至可以遠遠超過人類。模擬意味著替代,能夠被人工智能模擬的人類活動也就有可能被替代。因此,人工智能可以作為人類勞動的協(xié)助者或替代者,廣泛進入各個生產(chǎn)和生活領域,這樣既可以節(jié)省大量的勞動時間,為人類提供更多的自由時間,又可以創(chuàng)造更高的勞動效率,為人類提供豐富的勞動產(chǎn)品和便利的社會服務。概而言之,能夠提高勞動生產(chǎn)力以造福人類,是人工智能獲取倫理正當性的現(xiàn)實基礎。

但可能性并不意味著現(xiàn)實性,人工智能能否實現(xiàn)自己的倫理正當性,并不取決于人工智能自身,而是取決于人工智能的現(xiàn)實發(fā)展是否真正指向其正當性目的。人工智能既有可能實現(xiàn)合目的性發(fā)展,提升人類的幸福生活;也有可能步入異化發(fā)展道路,破壞人類的根本利益。如果只看到人工智能的進步性,以超人類主義姿態(tài)歡呼“超級智能”,要求毫無約束地發(fā)展人工智能技術,就有可能危及整個人類的生存和發(fā)展。反之,如果只看到人工智能的危險性,堅持拒斥“科技怪物”式的反智主義,要求嚴格禁止人工智能技術的發(fā)展,則有可能導致人類科技創(chuàng)新的停滯。因此,理性的倫理辯護應該是辯證的,既要看到人工智能的合目的性,歡迎人工智能發(fā)展創(chuàng)造的人類福利;也要看到人工智能的盲目性,警惕人工智能可能帶來的潛在風險。

發(fā)展人工智能需要有效的倫理治理

人工智能是人類創(chuàng)造出來的、為人類服務的技術物,它具有強大的技術力量,但并不必然為人類服務。人工智能既可能造福人類,也可能傷害人類,正如無人轟炸機既可能阻止戰(zhàn)爭也可能殺傷平民一樣。從目前可預見的情況看,人工智能有可能引發(fā)四類主要問題。第一是安全問題,即人工智能的強大力量既可能改善人類生活,也可能危及社會發(fā)展和人類安全。第二是正義問題,即人工智能在能夠提供充裕財富和便利服務的同時,有可能加劇分配不公和群體歧視等社會正義問題。第三是人的發(fā)展問題,即人工智能對人類勞動的取代以及對人類能力的延伸增強,有可能阻礙人類能力的全面發(fā)展。第四是自由自主問題,即人工智能替代人類進行決策和行動,在減輕人類負擔的同時也壓縮了人類的自由自主空間。要防范這些風險,必須對人工智能進行嚴格的規(guī)治和約束,使之符合人類現(xiàn)有的倫理規(guī)范、道德觀念和價值取向。

對人工智能進行倫理治理,就是要讓人工智能技術在研發(fā)和使用過程中貫徹服務人類這一根本宗旨,以最大限度地造福人類。也就是說,人工智能的發(fā)展必須以人類的根本利益為中心,必須以人類現(xiàn)有的倫理規(guī)范和價值取向為標準。離開了這個中心和標準,人工智能的發(fā)展就可能誤入歧途。人類基本價值共識主要包括三個方面:一是尊重個體的生命安全與自由發(fā)展,二是追求人際的公平正義與仁愛友善,三是強調(diào)群體的和平穩(wěn)定與繁榮發(fā)展。對人工智能進行倫理治理,就是要讓人工智能的發(fā)展服從人類公認的倫理規(guī)范,促進人類基本價值的廣泛實現(xiàn)。

對人工智能進行倫理治理,關鍵在于人工智能背后的人而不是人工智能本身。人工智能無論擁有多強大的功能,在本質(zhì)上仍然只是一種技術物,是由人類創(chuàng)造出來并且受人類支配的技術物。人工智能的自主智能能力并非自然生成,能夠具有什么樣的能力,具有多大的能力,由人類而非人工智能決定。從創(chuàng)造者與受造物的責任關系來看,人類必須對自己的創(chuàng)造物負責,必須對人工智能的功能負責,必須對人工智能引發(fā)的一切后果負責。也就是說,倫理治理需要堅持這樣一種核心理念:人工智能引發(fā)的社會問題首先是“人”的問題,而不是“物”的問題。對人工智能進行倫理治理,首先要增強人工智能相關人員的責任意識。

對人工智能進行有效的倫理治理,既要防止強調(diào)自由放任的技術至上主義思想,也要防止追逐私人利益的技術中立主義思想。讓人工智能不受任何約束地自由發(fā)展,有可能使人工智能走上盲目發(fā)展道路,導致人造物奴役人類的異化局面。讓人工智能服從個人私利和私人意志,可能使人工智能走上片面發(fā)展道路,導致人工智能淪為部分人的牟利工具。真正合乎倫理的、負責任的人工智能,只能是為整個人類謀福利的人工智能。

發(fā)展人工智能需要合理的倫理創(chuàng)新

人工智能的問世會在一定程度上改變?nèi)祟惖膫惱砩?,沖擊現(xiàn)有的道德觀念。一方面,人工智能作為一種超級計算軟件與非生物硬件相結合的存在物,既不同于人類這種具有生物身體的理性存在物,也不同于動物這種具有感受能力的非理性存在物。一旦進入道德世界,這種新型存在物具有什么樣的道德意義,應該享有何種道德地位,這是現(xiàn)有的倫理學理論未曾碰到過的新問題,需要進行嚴肅認真的思考。另一方面,人工智能全面進入生產(chǎn)生活領域,必然會影響現(xiàn)有的勞動模式和交往方式,甚至會形成一些具有全新倫理性質(zhì)的社會關系。一旦這些變化超出了現(xiàn)有倫理學理論的解釋范圍,就需要創(chuàng)新發(fā)展倫理學理論以給予合理解釋。從這個意義上說,要想充分理解人工智能的道德意義,合理應對人工智能帶來的倫理變化,就需要進行一定的倫理創(chuàng)新,發(fā)展與人工智能相適應的倫理理論和道德觀念。

基于人工智能發(fā)展的倫理創(chuàng)新首先需要立足人工智能這一獨特的技術物。人工智能不同于其他的人造技術物,它具有一定的智能能力和自主能力。盡管人工智能并不具有自己的自由意志,只能以設計者、生產(chǎn)者和使用者等人類的意志作為意志,但在諸多人類意志的控制之下,人工智能仍然擁有一個相對狹小的選擇空間,需要其進行自主的行為選擇。這種相對狹小的自主選擇空間和相對弱小的自主選擇能力,有可能賦予人工智能行動以一定的道德意義。因此,人工智能能否被視為一種道德主體,是否需要承擔一定的道德責任,可否享有一定的道德權利,都開始成為需要嚴肅對待的問題,這或許會指向一種真正面向人工智能開放的倫理學理論。這同時意味著,我們需要以人工智能作為一個全新的參照物,反思現(xiàn)有的道德主體理論、道德責任理論、道德行為理論、道德評價理論以及道德賞罰理論等,將人類對道德本身的理解推向一個新高度,這樣才能真正把握人工智能的道德意義。

基于人工智能發(fā)展的倫理創(chuàng)新還需要面對人工智能帶來的生活變化。人工智能的廣泛應用可能從三個方面改變?nèi)祟惖纳?。第一,人工智能可以作為人類器官的替代者或者增強者,提升人類的生命能力。這就從一個全新角度重新提出了人的特質(zhì)問題:面對人工智能,人之為人的特質(zhì)到底是什么?生命能力增強后的人類能否獲得自我同一性?第二,人工智能可以作為人類勞動的替代者或協(xié)助者,推動機器勞動大規(guī)模取代人類勞動,這又從一個全新角度重新提出了勞動本質(zhì)問題:勞動對于人類的真正意義到底是什么?由自動化機器生產(chǎn)的勞動產(chǎn)品應該如何分配?第三,人工智能大規(guī)模進入生產(chǎn)生活領域,與人類形成各種錯綜復雜的關系,這就提出了一個全新的人機關系問題:人類到底應該如何看待和處理與人工智能的關系?要回答這些問題,就需要對現(xiàn)有的倫理學理論進行深入反思,或許需要將倫理學理論的根基從現(xiàn)有的人—人關系擴展至新興的人—機關系。

基于人工智能發(fā)展的倫理創(chuàng)新,既要警惕理論上的僵化主義,也要警惕理論上的機會主義。理論上的僵化主義者完全固守現(xiàn)有的倫理學理論,看不到人工智能帶來的發(fā)展機遇,不愿意做出任何本質(zhì)上的理論改變。這有可能導致倫理學理論與實踐發(fā)展脫節(jié),進而弱化倫理學理論指導人工智能實踐發(fā)展的功能。理論上的機會主義者完全無視現(xiàn)有的倫理學原則,放棄人類長期珍視的基本價值,只追隨實踐發(fā)展的現(xiàn)實需要。這有可能導致倫理學理論喪失其價值根基,同樣會弱化倫理學理論指導實踐發(fā)展的功能。合理的倫理創(chuàng)新,必須堅守人類基本價值共識,根據(jù)人工智能的發(fā)展實際,不斷創(chuàng)造能夠理解、包容和指導人工智能發(fā)展的新倫理學理論。

無論從人工智能的健康發(fā)展來看,還是從人類社會的持續(xù)發(fā)展來看,人工智能都必須與倫理結合起來。沒有理性的倫理辯護,人類難以保持對人工智能發(fā)展的正確態(tài)度。沒有有效的倫理治理,人類難以合理引導人工智能的強大力量。沒有合理的倫理創(chuàng)新,人類難以跟上人工智能的發(fā)展步伐。只有將倫理辯護、倫理治理與倫理創(chuàng)新結合起來,才能真正確保人工智能向上向善發(fā)展,形成科技健康發(fā)展與社會持續(xù)進步的雙贏局面。

(作者:李志祥,系南京師范大學公共管理學院教授)

[責任編輯:潘旺旺]
標簽: 倫理學   人工智能   李志祥   科技哲學   科技倫理