網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 理論前沿 > 深度原創(chuàng) > 正文

智能技術(shù)的價(jià)值觀建構(gòu)及引領(lǐng)

【摘要】智能作為技術(shù),其價(jià)值觀建立于對(duì)技術(shù)哲學(xué)的思考之中。技術(shù)既是“我為之物”,是人類有意識(shí)改造外在世界的工具,又是“為我之物”,深刻地改變著人類的價(jià)值。智能技術(shù)運(yùn)用于信息傳播的價(jià)值觀,首先是要堅(jiān)持真實(shí)、人的尊嚴(yán)和非暴力的原則,信息價(jià)值觀的根本和基石是真實(shí)性、專業(yè)性和公共性;其次,要通過(guò)對(duì)透明性、公正原則的追求堅(jiān)守信息價(jià)值觀;最后,要盡量摒棄目的至上的工具理性的不足,融入人本至上的價(jià)值理性,弘揚(yáng)社會(huì)主流價(jià)值觀,引領(lǐng)公序良俗的價(jià)值導(dǎo)向。

【關(guān)鍵詞】智能技術(shù) 價(jià)值觀 信息傳播 媒介倫理

【中圖分類號(hào)】G206 【文獻(xiàn)標(biāo)識(shí)碼】A

人類正在與不斷進(jìn)步的智能技術(shù)深度融合,甚至在某些方面難分彼此、融為一體。智能技術(shù)正在重新界定新聞與信息傳播業(yè)。在新聞傳播中,人工智能被用于新聞的采集、生產(chǎn)制作和新聞分發(fā)全過(guò)程,并且還被用于與用戶的互動(dòng)、事實(shí)核查。在其它非新聞?lì)愋畔⒎矫?,智能技術(shù)也在同樣產(chǎn)生廣泛而深遠(yuǎn)的影響。合成智能系統(tǒng)的機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)、認(rèn)知系統(tǒng)及相關(guān)算法、人造勞動(dòng)者,都已經(jīng)運(yùn)用于信息傳播。但正如人類歷史上所有的技術(shù)一樣,智能類技術(shù)也有其缺陷。作為人類智力的成果,它也可以把人類已有的道德弱點(diǎn)和價(jià)值觀缺陷深嵌其運(yùn)用之中,比如歧視、偏見(jiàn);作為一種發(fā)展中的成果,其技術(shù)本身具有不確定性、不穩(wěn)定性;作為一種融入人類心智、可以自我學(xué)習(xí)和發(fā)展的技術(shù),它還具有難以解讀性和潛在的不可控性。技術(shù)中立、算法無(wú)涉價(jià)值觀的神話,早已經(jīng)被無(wú)數(shù)的事實(shí)所打破。在智能技術(shù)被如此泛用的今天,信息傳播領(lǐng)域必須要關(guān)注價(jià)值觀的問(wèn)題。

智能技術(shù)的核心價(jià)值觀導(dǎo)向要以人為本

著名媒介倫理學(xué)專家克里斯琴斯曾論述過(guò):技術(shù)并不具有假定的中立性,需要以人為中心去探討實(shí)質(zhì)性的問(wèn)題。①關(guān)于智能,1942年美國(guó)科幻作家阿西莫夫提出了“機(jī)器人學(xué)三定律”——機(jī)器人不能傷害人類,它們必須服從于人類,它們必須保護(hù)自己,標(biāo)志著人類開(kāi)始對(duì)人工智能有了哲學(xué)思考。1950年維納指出,自動(dòng)化技術(shù)或現(xiàn)在的機(jī)器人技術(shù)可能造成“人腦的貶值”。自動(dòng)化機(jī)器帶來(lái)的新工業(yè)革命是一把雙刃刀,它可以用來(lái)為人類造福,也可以毀滅人類。要利用新技術(shù)來(lái)為人類造福,減少人的勞動(dòng)時(shí)間,豐富人的精神生活,而不是僅僅為了獲得利潤(rùn)和把機(jī)器當(dāng)作新的偶像來(lái)崇拜。②這是較明確提出了智能技術(shù)的核心價(jià)值觀,即如他所強(qiáng)調(diào)的:人的用處主要在于人有區(qū)別于其他物體和生物的道德、人格、靈魂、精神、記憶等精神活動(dòng)。

智能作為技術(shù),其價(jià)值觀建立于對(duì)技術(shù)哲學(xué)的思考之中。馬克思將技術(shù)視為人類實(shí)踐的重要樣式,是人的本質(zhì)力量的對(duì)象化,技術(shù)既是“我為之物”,是人類有意識(shí)改造外在世界的工具,又是“為我之物”,深刻地改變著人類的價(jià)值。受到馬克思影響的馬爾庫(kù)塞認(rèn)為科學(xué)技術(shù)導(dǎo)致人類主體性消解和人類異化。因此,智能化信息傳播技術(shù)既是“我為之物”,同時(shí)也是“為我之物”,其價(jià)值觀一定要倡導(dǎo)一種人本主義的哲學(xué),弘揚(yáng)人類的主體性價(jià)值,將人作為終極性價(jià)值的來(lái)源,作為存在的根本目的。

本文將價(jià)值觀簡(jiǎn)要界定為主體對(duì)于主客體之間價(jià)值關(guān)系、客體有無(wú)價(jià)值和價(jià)值大小的立場(chǎng)與態(tài)度的總和,是對(duì)價(jià)值及其相關(guān)內(nèi)容的基本觀點(diǎn)和看法。理解智能價(jià)值的本質(zhì),主要需要明確三個(gè)要點(diǎn):一是來(lái)源于客體,智能化信息技術(shù)的價(jià)值,恰恰來(lái)源于智能化信息技術(shù)自身;二是取決于主體,智能化信息技術(shù)價(jià)值的大小、取舍,離不開(kāi)人類的具體實(shí)踐,離不開(kāi)人類的選擇取舍;三是產(chǎn)生于實(shí)踐,只有在實(shí)踐的范疇中去理解智能信息傳播技術(shù),才能了解它真正的價(jià)值。

鑒于技術(shù)是人的本質(zhì)力量對(duì)象化的本質(zhì)特征,技術(shù)本身就承載著人類的價(jià)值、擁有價(jià)值觀,智能化信息傳播技術(shù)毋庸置疑也承載著價(jià)值。近年西方學(xué)界計(jì)劃賦予智能算法本身以價(jià)值觀,讓算法本身能作價(jià)值判斷,就如科幻作家阿西莫夫提出的機(jī)器人三定律,讓機(jī)器人進(jìn)行道德判斷,不過(guò)這樣的做法受到了廣泛的質(zhì)疑。將倫理原則、價(jià)值觀念內(nèi)嵌到智能化信息傳播技術(shù)當(dāng)中,也許為時(shí)尚遠(yuǎn),不過(guò),目前在開(kāi)發(fā)智能技術(shù)方面,多個(gè)監(jiān)管機(jī)構(gòu)提出了相關(guān)的倫理準(zhǔn)則和價(jià)值觀導(dǎo)向,比如歐盟委員會(huì)的人工智能高級(jí)別專家組(AI HLEG)呼吁采用“以人為本的人工智能方法”,他們將其稱為“可信賴的人工智能”。其模型包括三個(gè)維度:首先,人工智能應(yīng)遵守現(xiàn)行法律法規(guī);其次,人工智能應(yīng)該以倫理為導(dǎo)向,即應(yīng)該尊重基本權(quán)利并遵守核心原則和價(jià)值觀;最后,可信賴的人工智能要求算法具有技術(shù)上的穩(wěn)健性和算法的可靠性。③他們還確定了應(yīng)遵循的四個(gè)倫理原則:一是尊重人類自治的原則;二是預(yù)防傷害的原則;三是公平原則;四是可解釋性原則。這些原則可以遵循七個(gè)要求,包括人為代理和監(jiān)督,技術(shù)穩(wěn)健性和安全性,隱私和數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性,社會(huì)和環(huán)境福祉,以及問(wèn)責(zé)制。

價(jià)值觀需要重視社會(huì)文化屬性

人類所擁有的學(xué)習(xí)能力、語(yǔ)言,可以被機(jī)器復(fù)制,但是如今智能技術(shù)提升之后,其實(shí)人和機(jī)器所完成的信息并不是一樣的,因?yàn)槿耸怯性鷥r(jià)值觀的,而機(jī)器則是被賦予價(jià)值觀的。信息是對(duì)一個(gè)消息刺激的反應(yīng)的再提取,信息的傳輸是人的感覺(jué)和能力的延伸。在傳輸信息的過(guò)程中還伴隨著人類所特有的人文的特質(zhì),這些特質(zhì)集中體現(xiàn)于價(jià)值觀。綜合中外學(xué)者的各種定義,本文將價(jià)值觀看作是主體對(duì)于主客體之間價(jià)值關(guān)系、客體有無(wú)價(jià)值和價(jià)值大小的立場(chǎng)與態(tài)度的總和,是對(duì)價(jià)值及其相關(guān)內(nèi)容的基本觀點(diǎn)和看法。信息價(jià)值觀是人們對(duì)信息及信息技術(shù)的看法、態(tài)度與理念取向。

研究信息價(jià)值觀問(wèn)題,必須重視價(jià)值觀的社會(huì)歷史文化屬性,要在社會(huì)和文化層面確定價(jià)值觀的涵義。④文化價(jià)值觀更強(qiáng)調(diào)文化中所流傳下來(lái)的規(guī)則,而社會(huì)價(jià)值觀則注重當(dāng)下的社會(huì)規(guī)范和社會(huì)選擇的結(jié)果。文化價(jià)值觀是指共享同一文化的成員在社會(huì)化過(guò)程中被教導(dǎo)的價(jià)值規(guī)則,是一個(gè)文化中所流傳下來(lái)的一套有關(guān)生活是為了什么及如何可以生活得好的構(gòu)想及信念。這些構(gòu)想及信念為文化成員們?cè)谌粘I钭鋈颂幨罆r(shí)提供了行動(dòng)目標(biāo)及為達(dá)到這些目標(biāo)所可以選擇的行為途徑。社會(huì)價(jià)值觀可以視為與文化價(jià)值觀相關(guān)的一個(gè)群體中的成員之間共同擁有的、外在于個(gè)體的、存在于人與人之間互動(dòng)中的一套價(jià)值體系。⑤在我國(guó),集中體現(xiàn)社會(huì)歷史文化屬性的就是社會(huì)主義核心價(jià)值觀,包括國(guó)家層面、社會(huì)層面的價(jià)值要求,其中,國(guó)家層面的價(jià)值要求是“富強(qiáng)、民主、文明、和諧”,社會(huì)層面的價(jià)值要求是“自由、平等、公正、法治”。

智能技術(shù)運(yùn)用于信息傳播中的價(jià)值觀問(wèn)題及引導(dǎo)

“核心價(jià)值觀”應(yīng)是多種價(jià)值觀的“交集”,即是“疊加共識(shí)”。在媒體系統(tǒng)和社會(huì)系統(tǒng)之間,同樣存在這種“疊加共識(shí)”,但在不同時(shí)空條件和社會(huì)語(yǔ)境下,媒體系統(tǒng)和社會(huì)系統(tǒng)之間的“疊加共識(shí)”會(huì)有差異。在中國(guó),社會(huì)的主導(dǎo)價(jià)值觀也應(yīng)當(dāng)成為信息價(jià)值觀建構(gòu)中的重要指導(dǎo)精神。習(xí)近平總書(shū)記指出,“發(fā)揮社會(huì)主義核心價(jià)值觀對(duì)國(guó)民教育、精神文明創(chuàng)建、精神文化產(chǎn)品創(chuàng)作生產(chǎn)傳播的引領(lǐng)作用”。為了確保智能信息內(nèi)化社會(huì)核心價(jià)值觀并引領(lǐng)信息傳播,需要形成信息傳播專業(yè)的價(jià)值觀。

不同的社會(huì)語(yǔ)境或媒體語(yǔ)境下,信息傳播價(jià)值理念各有不同,但也有一些是大家都應(yīng)遵守的價(jià)值觀,比如克里斯琴斯強(qiáng)調(diào)的真實(shí)、人的尊嚴(yán)和非暴力。具體到媒體的實(shí)踐層面,有三個(gè)層面:信息真實(shí)性、傳播的專業(yè)性、媒體的公共性,它們是信息傳播價(jià)值觀的根本和基石。媒體只有把自身的核心價(jià)值觀傳播好、踐行好,才能更好地為社會(huì)效力。人工智能技術(shù)與媒體行業(yè)的深度融合正在全球范圍內(nèi)漸趨深入,涉及信息搜集、生產(chǎn)、分發(fā)、互動(dòng)和事實(shí)檢查過(guò)程的各個(gè)方面,專業(yè)價(jià)值觀在很多方面存在問(wèn)題。人工智能減少了人的代理和自主權(quán)、算法可靠性,需要確保問(wèn)責(zé)制、透明性和隱私性。智能算法的不確定證據(jù)導(dǎo)致不正確的行動(dòng);無(wú)法解讀的證據(jù)導(dǎo)致不透明度;誤導(dǎo)性的證據(jù)導(dǎo)致偏見(jiàn);不公正的結(jié)果導(dǎo)致歧視;變革的影響導(dǎo)致對(duì)自主權(quán)的挑戰(zhàn);變革的影響導(dǎo)致對(duì)信息隱私的挑戰(zhàn);可追溯性導(dǎo)致道德責(zé)任。⑥

智能化技術(shù)的不透明特性,帶來(lái)了對(duì)真實(shí)、人的尊嚴(yán)等價(jià)值觀的極大挑戰(zhàn)。缺少透明度就極易導(dǎo)致將信息生產(chǎn)推入“黑箱”。技術(shù)本身和技術(shù)商業(yè)化一道,將信息線索發(fā)掘、信息文本寫(xiě)作、評(píng)論策展、標(biāo)題制作、網(wǎng)頁(yè)編輯、信息分發(fā)渠道的諸多流程推向了“黑箱”——即新聞信息生產(chǎn)的幕后的幕后,人類現(xiàn)有認(rèn)知水平對(duì)其真實(shí)度、可信度、透明度難以判斷。又由于人工智能技術(shù)有“科學(xué)”和“客觀”光環(huán)的加持,黑箱化的過(guò)程不僅改變了新聞的樣態(tài)、新聞生產(chǎn)的格局,而且?guī)?lái)了“流量工廠”驅(qū)逐優(yōu)質(zhì)新聞、定制推送固化社會(huì)分層、技術(shù)平臺(tái)反收編新聞機(jī)構(gòu)等社會(huì)格局變化。⑦

智能化技術(shù)運(yùn)用于信息傳播,也帶來(lái)了歧視和偏見(jiàn)等問(wèn)題,有悖于公正的價(jià)值觀。信息從傳播層面、社會(huì)層面到個(gè)人層面,都可能存在信息的偏向。如點(diǎn)對(duì)點(diǎn)式的個(gè)人化傳播,可能帶來(lái)信息極化、回音室效應(yīng);信息原有的性別、種族、階層、區(qū)域等問(wèn)題,經(jīng)過(guò)算法的自動(dòng)化現(xiàn)實(shí)認(rèn)同而投射于傳播中,新聞的算法推薦會(huì)根據(jù)用戶搜索來(lái)推送信息,還可以計(jì)入收入水平和瀏覽紀(jì)錄等情況,進(jìn)而刻板化某些原有的身份、觀點(diǎn)。人們獲得了自己選擇信息的權(quán)利后,會(huì)尋求最認(rèn)同的看法、尋找那些能夠支持自己觀點(diǎn)的新信息來(lái)確認(rèn)自己的決策或觀點(diǎn),忽視那些否定或推翻自己觀點(diǎn)的信息,形成所謂證實(shí)性偏見(jiàn)。智能化技術(shù)在設(shè)計(jì)的過(guò)程中很難保證絕對(duì)的價(jià)值中立,同時(shí)還可能運(yùn)用錯(cuò)誤的數(shù)據(jù),由此會(huì)帶來(lái)不準(zhǔn)確的、有偏向的數(shù)據(jù)而導(dǎo)致歧視與偏見(jiàn)。

過(guò)分依賴智能化技術(shù),過(guò)分信賴工具理性,也會(huì)造成價(jià)值引領(lǐng)的缺失。運(yùn)用智能算法干預(yù)新聞生產(chǎn),計(jì)算機(jī)技術(shù)與新聞界的深度融合消解了傳統(tǒng)的信息生產(chǎn)方式,算法結(jié)構(gòu)性特點(diǎn)導(dǎo)致了生產(chǎn)效率與人文精神的沖突,這是人工智能技術(shù)與信息本質(zhì)的人文追求的價(jià)值沖突,是工具理性和價(jià)值理性的沖突。信息作為機(jī)器和社會(huì)的控制手段,其必須內(nèi)含以人為本的價(jià)值取向,盡量摒棄目的至上的工具理性的不足,而融入人本至上的價(jià)值理性。從社會(huì)層面,要通過(guò)算法弘揚(yáng)社會(huì)的主流價(jià)值觀、公序良俗的價(jià)值導(dǎo)向;從個(gè)體的層面,要盡力優(yōu)化算法、平衡個(gè)體的信息菜單、明確其價(jià)值取向,幫助個(gè)體校正原有的偏向;從信息的層面,要通過(guò)加強(qiáng)透明度追求公正、堅(jiān)守真實(shí)性原則,并維護(hù)人類尊嚴(yán)和非暴力的價(jià)值觀。之前的工業(yè)革命使機(jī)器代替人的體力勞動(dòng),如今的智能革命也只是機(jī)器要代替人的腦力勞動(dòng),而不是代替思維本身。

人類從未如今天這般將信息的價(jià)值提升到如此的高度。信息是使人類不斷延續(xù)的基本元素,人類只有通過(guò)信息才能生生不息。正如維納所言,一個(gè)體系抵抗組織程度衰變的重要方法,就是保持開(kāi)放。不斷地與外界交換信息和能量,調(diào)節(jié)體系內(nèi)部變量之間的關(guān)系、抗拒組織解體的自然趨勢(shì),是保持體系充滿活力的重要途徑。

(作者為清華大學(xué)新聞與傳播學(xué)院教授、常務(wù)副院長(zhǎng);清華大學(xué)新聞與傳播學(xué)院博士后李凌對(duì)本文亦有貢獻(xiàn))

【注:本文系國(guó)家社科基金重大項(xiàng)目“智能時(shí)代的信息價(jià)值觀引領(lǐng)研究”(項(xiàng)目編號(hào):18ZDA307)的階段性成果】

【注釋】

①Clifford G. Christians (2019). Media Ethics and Global Justice in the Digital Age. Cambridge University Press.

②[美]維納:《人有人的用處:控制論與社會(huì)》,陳步譯,北京:北京大學(xué)出版社,2010年,第132頁(yè)。

③High Level Expert group on Artificial Intelligence (2019). Ethics guidelines for trustworthy AI. Retrieved January 20, 2020.

④劉曉紅、孫五三:《價(jià)值觀框架分析——研究媒介和價(jià)值觀變遷的可能途徑》,《新聞與傳播研究》,2007年第4期。

⑤楊中芳:《如何理解中國(guó)人》,香港:遠(yuǎn)流出版社,2001年,第307頁(yè)。

⑥Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2).

⑦仇筠茜、陳昌鳳:《黑箱:人工智能技術(shù)與新聞生產(chǎn)格局嬗變》,《新聞界》,2018年第1期。

責(zé)編/李丹妮 美編/楊玲玲

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。   

[責(zé)任編輯:谷漩]