【摘要】“認(rèn)知域”指的是認(rèn)知活動所涉及的內(nèi)容和場所的集合。長期以來,認(rèn)知域一直被認(rèn)為僅局限在大腦之內(nèi)。然而,越來越多的學(xué)者認(rèn)為,人類認(rèn)知可以部分地由大腦外的因素構(gòu)成,于是人類的認(rèn)知域延展到了大腦之外,并納入了認(rèn)知技術(shù)等要素。在認(rèn)知域不斷延展的過程中,人們擔(dān)心自身的認(rèn)知域會受到虛假信息的侵?jǐn)_和他人意志的操控。為了應(yīng)對認(rèn)知域延展帶來的安全挑戰(zhàn),我們應(yīng)該對認(rèn)知域中的“人—技”關(guān)系保持清醒的認(rèn)識。同時,政府、專家和個人都應(yīng)該付諸努力,從倫理法律、技術(shù)設(shè)計和數(shù)字素養(yǎng)等多個方面來保護(hù)認(rèn)知域的安全。
【關(guān)鍵詞】認(rèn)知域 延展認(rèn)知 認(rèn)知安全 虛假信息 人機(jī)協(xié)作
【中圖分類號】G31 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.11.006
【作者簡介】周程,北京大學(xué)哲學(xué)系教授、博導(dǎo),北京大學(xué)醫(yī)學(xué)人文學(xué)院院長,中國科協(xié)-北京大學(xué)科學(xué)文化研究院副院長。研究方向為科學(xué)社會史、科學(xué)技術(shù)與社會、創(chuàng)新管理與科技政策。主要著作有《科技創(chuàng)新典型案例分析》《福澤諭吉と陳獨秀:東アジア近代科學(xué)啓蒙思想の黎明》等。
柏拉圖在《斐德羅篇》(Phaedrus)中描述了蘇格拉底對書寫的看法。蘇格拉底認(rèn)為,書寫是對記憶的破壞,書寫技術(shù)對人類認(rèn)知產(chǎn)生了負(fù)面的影響?,F(xiàn)如今,認(rèn)知技術(shù)以一種更加廣泛且深入的方式進(jìn)入了人們的生活。人工智能、大型語言模型、腦機(jī)接口等高新技術(shù)的發(fā)展,深刻地影響了人們的認(rèn)知方式,甚至直接改變了人們的認(rèn)知范圍,重新塑造了人們的認(rèn)知活動。因此,有必要重新審視“認(rèn)知域”(cognitive domain)的含義,理解“認(rèn)知域”在當(dāng)下發(fā)生的轉(zhuǎn)變與面臨的風(fēng)險,研判“認(rèn)知域”延展對“人—技”關(guān)系帶來的影響,并為適應(yīng)“認(rèn)知域”的不斷延展準(zhǔn)備好應(yīng)對策略。
認(rèn)知域的定義及其延展
所謂“認(rèn)知域”,簡單來說就是人類認(rèn)知活動所涉及的內(nèi)容和場所的集合。傳統(tǒng)觀點認(rèn)為,人類的認(rèn)知活動都發(fā)生在大腦中,大腦就像一臺計算機(jī)一樣進(jìn)行著表征與計算。而技術(shù)設(shè)備對人類認(rèn)知內(nèi)容和認(rèn)知過程的影響,則主要是通過間接方式實現(xiàn)的。
然而,進(jìn)入21世紀(jì)后,這一關(guān)于認(rèn)知的傳統(tǒng)觀點受到了沖擊。人們發(fā)現(xiàn),語言符號、紙筆工具,乃至一些更復(fù)雜的技術(shù)設(shè)備,例如,智能手機(jī)、互聯(lián)網(wǎng)等,不僅可以被當(dāng)作輔助認(rèn)知的工具,而且還可當(dāng)作人類認(rèn)知能力的延伸,成為認(rèn)知域中的一部分。[1]這些技術(shù)不斷挑戰(zhàn)著人們對認(rèn)知內(nèi)在主義的看法。于是,以“延展認(rèn)知”(extended cognition)為代表的認(rèn)知科學(xué)研究綱領(lǐng)逐漸被人們所接受。
延展認(rèn)知關(guān)注環(huán)境因素在認(rèn)知過程中發(fā)揮的作用,認(rèn)為環(huán)境因素可以構(gòu)成認(rèn)知過程的一部分。為了捍衛(wèi)這個觀點,安迪·克拉克(Andy Clark)和大衛(wèi)·查爾莫斯(David Chalmers)提出了“對等性原則”(parity principle),即“如果在我們面對某項任務(wù)時,世界的一部分作為一個過程發(fā)揮作用,且如果這個過程是在頭腦中完成的,我們會毫不猶豫地將其作為認(rèn)知過程的一部分,那么世界的這一部分就(正如我們聲稱的那樣)是認(rèn)知過程的一部分”。[2]換言之,發(fā)揮了相同認(rèn)知功能的外在因素也應(yīng)該享有和內(nèi)在因素同等的地位。
克拉克和查爾莫斯曾用“英伽和奧托”(Inga and Otto)的案例來幫助我們更好地理解認(rèn)知域究竟是怎樣延展的。認(rèn)知能力正常的英伽想去博物館看展覽,于是她回憶起博物館的位置,并憑借這個信念成功到達(dá)博物館;而患有阿爾茲海默癥的奧托也想去看展覽,他的辦法是通過檢索隨身攜帶的筆記本得知博物館的位置,最終也成功地到達(dá)博物館。在這兩個案例中,奧托筆記本上的信息發(fā)揮了和英伽的生物記憶相同的功能,都構(gòu)成了各自認(rèn)知過程的一部分。這樣,奧托的認(rèn)知過程就延展到了他的筆記本上,他的認(rèn)知域因而包括了大腦之外的因素。
為了防止認(rèn)知域過度膨脹,甚至于變得無所不包,克拉克和查爾莫斯列出了對外在因素的幾項限制條件,即依賴性、可通達(dá)性、可信賴性、歷史關(guān)聯(lián)性。[3]雖然關(guān)于這些條件的爭論仍舊存在,但是他們至少提供了一套參考標(biāo)準(zhǔn),能夠幫助我們區(qū)分兩種“外部資源”:一種僅僅被我們當(dāng)作工具,而另一種則被吸收到認(rèn)知域中。
根據(jù)延展認(rèn)知的觀點,人們可以把外在于大腦的一些因素作為認(rèn)知內(nèi)容的載體。這樣,認(rèn)知內(nèi)容也就部分地延展到了大腦之外。類似的,延展認(rèn)知的支持者也認(rèn)同腦機(jī)接口設(shè)備是認(rèn)知的組成部分,應(yīng)該受到與人類大腦一樣的保護(hù)。甚至,人們通過虛擬現(xiàn)實技術(shù)完成的認(rèn)知活動,也與現(xiàn)實世界享有同樣的真實性。[4]這樣,認(rèn)知域就不再是一個專屬于個人的“黑箱”,而是一個可以被公開揭示、甚至被他人操控的領(lǐng)域。例如,他人可以相對容易地查看已被納入認(rèn)知域的筆記本、手機(jī)等,以此來了解認(rèn)知域主人的所思所想。如此一來,伴隨認(rèn)知域的延展,個人認(rèn)知內(nèi)容被他人篡改的風(fēng)險也在增加。在國防領(lǐng)域,“認(rèn)知域”已被視作與“物理域”“信息域”并列的第三大作戰(zhàn)空間[5]。在大國博弈中,“制腦權(quán)”已成為能否取得最終勝利的關(guān)鍵變量。在這種情況下,如何正確看待、保護(hù)和利用好認(rèn)知域,就不只是理論問題,也是現(xiàn)實問題。
認(rèn)知域面臨的安全問題
如今,人機(jī)交互日益頻繁,人類的大多數(shù)認(rèn)知活動都已被技術(shù)設(shè)備廣泛滲透,很難從中區(qū)分出純粹內(nèi)在的認(rèn)知活動。即使是在獨自冥想這樣的認(rèn)知活動中,人們的專注力和思考的深度也和周圍環(huán)境緊密相關(guān)。隨著認(rèn)知域的不斷延展,個人的認(rèn)知域安全很容易受到來自外界的威脅。為了保護(hù)認(rèn)知域的安全,人們需要對認(rèn)知域可能遭遇的侵害保持清醒的認(rèn)識。
首先,虛假信息容易混入個人的認(rèn)知域,從而影響人們作出判斷的認(rèn)知基礎(chǔ)。就拿上述英伽和奧托的例子來說,英伽的記憶存儲在大腦中,別人無法直接閱讀或者破壞英伽的心理內(nèi)容。相比之下,奧托的筆記本則更容易被人篡改、損毀,因而,筆記本上的信息的真實性變得難以判斷。[6]類似的,比起人們的生物記憶,存儲在手機(jī)中的日程表、照片、錄音等信息,似乎也更容易被黑客修改。這意味著人們借助技術(shù)設(shè)備獲取的信息其實未必可靠。因此,有必要對外在載體上的私人信息采取額外的甄別措施,以保障信息的可靠性。
然而,“深度偽造”(deepfake)或合成媒體(synthetic media)技術(shù),讓原本看似真實可信的公共信息也變得岌岌可危,這也給人類的認(rèn)知域帶來了沖擊。當(dāng)下,人們可以用很低的成本把公眾人物的臉替換到各種影視片段中,還可以用人工智能技術(shù)模仿知名歌手的聲線創(chuàng)作音樂作品。這些偽造的視頻、音頻往往非常逼真,如果不加以標(biāo)注就在各種網(wǎng)絡(luò)平臺上傳播,很容易讓數(shù)以萬計的網(wǎng)民誤以為這是真實發(fā)生的事情??梢姡谡J(rèn)知域中,不論是存儲在外在載體上的信息,還是進(jìn)入大腦之中的信息,都容易混入虛假信息,因而,需要對信息的真實性給予特別關(guān)注。
除了刻意編造的虛假信息,認(rèn)知技術(shù)所輸出的無意義信息也會影響人們的認(rèn)知,使得人們的認(rèn)知域變得更為混亂。以ChatGPT為代表的大型語言模型(Large Language Models)雖然可以與用戶實時交互,為用戶提供信息,但是它并不能保證信息的準(zhǔn)確性。比起上述兩種蓄意造假的例子,ChatGPT有時更像是在“胡說八道”,但這并非是它在有意誤導(dǎo)用戶。原因在于,其工作模式是根據(jù)以往的訓(xùn)練數(shù)據(jù),統(tǒng)計出哪個詞匯有最大概率出現(xiàn)在該問題對應(yīng)的答案中,從而生成回答,但其本身并不能理解語義內(nèi)容。由于認(rèn)知主體憑自身認(rèn)知域中的資源,很難甄別它是在陳述事實還是在編造幻夢,因此,人們可能更難察覺這類信息對各自認(rèn)知域的侵?jǐn)_。諸如此類的認(rèn)知技術(shù)正在重新塑造著認(rèn)知主體的認(rèn)知過程、認(rèn)知習(xí)慣以及信念集合。最近,ChatGPT還推出了手機(jī)應(yīng)用版本,人們接觸這類工具的便捷度越高,與之交互的程度就會越深,人腦與技術(shù)的耦合也就越緊密,以致人們將各類無意義信息納入認(rèn)知域的可能性大增。
其次,隨著腦機(jī)接口等技術(shù)的快速發(fā)展,自身的認(rèn)知域更容易遭到他人意志的操控。人們擔(dān)心腦機(jī)接口這類神經(jīng)技術(shù)大規(guī)模推廣后,植入腦中的設(shè)備會侵入自己的思想,讓自己的大腦成為科技公司觸手可及的數(shù)據(jù)庫,甚至受到他人的操控。有學(xué)者假設(shè)了四種通過腦機(jī)接口操控思想的情況:第一,腦機(jī)接口在人沒有意識到的時候自動更新了信息,如同步最新的節(jié)假日安排;第二,人們自主選擇加入自動更新協(xié)議,但實際上并不清楚有什么新信息將被加入自己的認(rèn)知域中;第三,腦機(jī)接口設(shè)備自動刪除用戶長期沒有使用的記憶;第四,腦機(jī)接口與人深度合作,幫助人類作出最優(yōu)選擇。[7]在前三種情況中,人們幾乎都不需要施展認(rèn)知能力,腦機(jī)接口設(shè)備實際上繞過了認(rèn)知主體來植入或刪除信息。第四種情況稍顯復(fù)雜,腦機(jī)接口設(shè)備可能會通過壓制認(rèn)知主體本可能產(chǎn)生的信念,來達(dá)成設(shè)備認(rèn)為的最優(yōu)解,這其實也阻礙了認(rèn)知主體本身的創(chuàng)造力。
實際上,人們已經(jīng)潛在地被一些技術(shù)所限制,個人認(rèn)知的自主性也相應(yīng)地受到了影響。例如,某些網(wǎng)站可能設(shè)置了搜索聯(lián)想詞,或者安排了搜索結(jié)果的順序,或者直接向用戶推送“猜你喜歡”。人們的認(rèn)知環(huán)境被潛在地改變,人們的自主性受到設(shè)計者意愿的影響,這無疑也是一種限制人們選擇的方式。一些手機(jī)軟件還會刻意增加用戶關(guān)閉某些功能的步驟或警示語,以此來影響用戶的自主選擇。如果人們與這些網(wǎng)站、軟件的持續(xù)交互足以讓它們被納入人們的認(rèn)知域,那么這些引導(dǎo)性的設(shè)計甚至可以被理解為一種威脅認(rèn)知自主性的攻擊。
綜上,認(rèn)知域安全很容易受到虛假信息的侵?jǐn)_以及他人操控的威脅。這兩類問題本質(zhì)上都可以歸結(jié)為技術(shù)的信任問題;換言之,認(rèn)知技術(shù)提供的信息內(nèi)容和輔助功能缺少明確的真實性和安全性判斷標(biāo)準(zhǔn),人們不知道應(yīng)該賦予認(rèn)知技術(shù)多大程度的信任,以及應(yīng)該依據(jù)什么標(biāo)準(zhǔn)來評判通過認(rèn)知技術(shù)獲得的信息是可靠的。為此,我們需要重新梳理和深入考察在延展的認(rèn)知域中人類與技術(shù)的關(guān)系究竟呈現(xiàn)出什么樣的維度,以及在此基礎(chǔ)上我們應(yīng)該如何應(yīng)對認(rèn)知域安全面臨的挑戰(zhàn)。
認(rèn)知域延展中的“人—技”關(guān)系
美國技術(shù)哲學(xué)家唐·伊德(Don Ihde)曾區(qū)分出四種典型的“人—技”關(guān)系(human-technology relations):一是具身關(guān)系(embodiment relations),即技術(shù)作為人的工具;二是解釋關(guān)系(hermeneutic relations),即技術(shù)表征人生活的世界;三是它異關(guān)系(alterity relations),即人和技術(shù)相互作用;四是背景關(guān)系(background relations),即技術(shù)成為人類活動的背景。[8]
從延展認(rèn)知的過程來看,認(rèn)知主體與認(rèn)知技術(shù)之間不只是單向的具身關(guān)系。特別是在延展的認(rèn)知域中,人們的認(rèn)知更容易受到認(rèn)知技術(shù)的操控。例如,人們在社交媒體上瀏覽信息、記錄生活、分享經(jīng)驗,社交媒體儼然成為了人類認(rèn)知域的延伸。然而,一些商家會利用社交媒體用戶的數(shù)據(jù),精準(zhǔn)描繪出用戶肖像并投送相關(guān)信息,以達(dá)成操控人們購物意向的目的。因此,在認(rèn)知域延展的背景下,我們不應(yīng)該簡單地把認(rèn)知技術(shù)理解為一種被動的工具。恰恰相反,認(rèn)知技術(shù)正在深刻地重塑著主體的認(rèn)知過程。
認(rèn)知域的不斷延展也使得認(rèn)知主體與認(rèn)知技術(shù)之間并不構(gòu)成純粹的解釋關(guān)系。時至今日,認(rèn)知技術(shù)的體系結(jié)構(gòu)和運行機(jī)制日益復(fù)雜,甚至專業(yè)人士也無法解釋認(rèn)知技術(shù)與世界之間的表征究竟是如何實現(xiàn)的,這意味著認(rèn)知技術(shù)具有了很高的不透明性。例如,當(dāng)下被大量使用的深度學(xué)習(xí)(deep learning)技術(shù)實際上是一種“基于樣本數(shù)據(jù)、使用多層神經(jīng)網(wǎng)絡(luò)對模式進(jìn)行分類的統(tǒng)計技術(shù)”[9],其中的神經(jīng)網(wǎng)絡(luò)由輸入、輸出和中間的大量隱藏層構(gòu)成。這些隱藏層不僅數(shù)量眾多,而且不同變量還被賦予了不同的權(quán)重,無論是事前推演還是事后回溯都很難將其解釋清楚,這也讓人們懷疑通過認(rèn)知技術(shù)了解到的信息,是否真的構(gòu)成了對真實世界的準(zhǔn)確表征。在認(rèn)知域延展的背景下,認(rèn)知域中“不透明的”認(rèn)知技術(shù),使得人類對世界的認(rèn)知過程也變得“不透明”,因此,我們也不能認(rèn)為認(rèn)知主體利用認(rèn)知技術(shù)就能成功達(dá)到解釋世界的目的。
然而,出于對透明性的擔(dān)憂而全盤拒斥認(rèn)知技術(shù)的使用并不是一個明智的選擇。其一,在工具層面,認(rèn)知技術(shù)在教育、醫(yī)療等領(lǐng)域有望為普通民眾提供低價高效的服務(wù),在國家安全方面其也是一個不可忽視的力量。認(rèn)知域延展后,認(rèn)知技術(shù)蘊(yùn)含的巨大經(jīng)濟(jì)價值、戰(zhàn)略價值,只會推動這個領(lǐng)域不斷往前發(fā)展。其二,在解釋層面,人們難以對認(rèn)知技術(shù)的透明性達(dá)成一致意見。換言之,人們并不清楚,我們究竟需要何種程度的透明性?透明性的參照標(biāo)準(zhǔn)是什么?由誰來評判是否達(dá)到了這一標(biāo)準(zhǔn)?
事實上,認(rèn)知域的延展使得認(rèn)知主體與認(rèn)知技術(shù)之間的關(guān)系,逐漸轉(zhuǎn)變?yōu)?ldquo;背景關(guān)系”與“它異關(guān)系”。
一方面,認(rèn)知技術(shù)已經(jīng)成為認(rèn)知主體生活經(jīng)驗的背景,人類無時無刻不處在認(rèn)知技術(shù)的影響中。首先,人類自身的認(rèn)知過程也并非完全透明,尤其是當(dāng)人類作出涉及直覺、預(yù)感等因素的決定時,人類自己也很難理解相關(guān)行為的邏輯結(jié)構(gòu)[10]。因此,要求作為認(rèn)知背景的技術(shù)實現(xiàn)絕對透明是不合理的。其次,保持技術(shù)的透明性不應(yīng)該成為人們維護(hù)認(rèn)知域安全的首要要求。一味追求認(rèn)知技術(shù)的透明性,可能會降低認(rèn)知技術(shù)的復(fù)雜度,以至于犧牲輸出結(jié)果的準(zhǔn)確性。有時人們希望得到的解釋并不是那種冗長的推理過程或詳盡的權(quán)重參數(shù),而是高效實用的回應(yīng)。與其讓認(rèn)知技術(shù)供應(yīng)商公開它們的設(shè)計參數(shù)、訓(xùn)練數(shù)據(jù),不如尋找其他方法讓認(rèn)知技術(shù)取信于人,使得延展的認(rèn)知域中認(rèn)知主體與其所處的認(rèn)知背景更加契合。
另一方面,越來越多的認(rèn)知技術(shù)被納入人們的認(rèn)知域中,這也意味著人類和認(rèn)知技術(shù)的交互越來越深入;認(rèn)知技術(shù)的不斷人格化,使得認(rèn)知主體與認(rèn)知技術(shù)呈現(xiàn)出“它異關(guān)系”。雖然目前大多數(shù)人工智能等認(rèn)知技術(shù)只能精于處理特定類型(如文字)、特定領(lǐng)域(如下棋)的問題,但是人類作為人工智能的訓(xùn)練者,可以將非文字信息轉(zhuǎn)換成技術(shù)可以攝入的資源。同樣的,機(jī)器也可以將得到的結(jié)果反饋給人類,由人類對此結(jié)果進(jìn)行有意義的解釋。甚至有學(xué)者在延展認(rèn)知的基礎(chǔ)上,提出了“人類延展的機(jī)器認(rèn)知”(Human-Extended Machine Cognition)[11],主張人類也可能被當(dāng)作實現(xiàn)以機(jī)器為基礎(chǔ)的智能的一個部分。最近,埃隆·馬斯克(Elon Musk)創(chuàng)立的“神經(jīng)鏈接”(Neuralink)公司獲得了美國食品藥品監(jiān)督管理局(FDA)的審批,可以在人身上進(jìn)行侵入式腦機(jī)接口實驗,這意味著認(rèn)知主體(大腦皮層)與認(rèn)知技術(shù)(腦機(jī)接口)之間的關(guān)系即將迎來更為密切的交互與融合,例如,盲人可能將會通過腦機(jī)接口“看到”圖像,癱瘓病人也可以運用腦機(jī)接口操控機(jī)器。這種“賽博格”式的技術(shù)革命打破了認(rèn)知域中主體與技術(shù)之間的界限,這就更需要我們以理性的態(tài)度看待“人—技”關(guān)系在認(rèn)知域延展過程中的新變革。
因此,認(rèn)知域中的主體和技術(shù)之間應(yīng)該保持密切合作的關(guān)系。認(rèn)知技術(shù)的最終目標(biāo)不是成為人,所以不應(yīng)該用人類的標(biāo)準(zhǔn),或者是高于人類的標(biāo)準(zhǔn)來要求認(rèn)知技術(shù),甚至限制認(rèn)知技術(shù)發(fā)展。在認(rèn)知域延展的背景下,技術(shù)的更新與人類認(rèn)知的變革相伴相行。例如,讀寫能力提升了人們的交流水平,基于讀寫和計算而制造出的計算機(jī)更是將人們的認(rèn)知能力提升到了更高的水準(zhǔn)之上[12]。新技術(shù)的誕生勢必沖擊現(xiàn)有的規(guī)則秩序,人們擔(dān)憂會被技術(shù)取代,就像工業(yè)革命時期手工業(yè)者擔(dān)憂機(jī)器會侵占自己的工作機(jī)會一樣。但是,當(dāng)時看起來可怖的機(jī)器已經(jīng)融入了人們的生活,當(dāng)時看來新奇的技術(shù)也在創(chuàng)造著新的崗位。人工智能進(jìn)入人類的認(rèn)知域之后,不可避免地會引起類似的憂懼。與其只關(guān)注技術(shù)的陰暗面而選擇停滯不前,人們不妨學(xué)會與認(rèn)知技術(shù)共存,及早準(zhǔn)備好維護(hù)認(rèn)知域安全的對策,讓認(rèn)知主體與認(rèn)知技術(shù)充分互動,以實現(xiàn)認(rèn)知能力的提升。
如何應(yīng)對認(rèn)知域延展帶來的安全挑戰(zhàn)
鑒于認(rèn)知域的延展導(dǎo)致“人—技”關(guān)系呈現(xiàn)出“背景關(guān)系”與“它異關(guān)系”的特點,人們需要根據(jù)認(rèn)知主體與認(rèn)知技術(shù)交互發(fā)展的情況,適時調(diào)整維護(hù)認(rèn)知域安全的倫理底線與法律規(guī)范,將認(rèn)知域中的非生物因素也納入考慮范圍。人類不能只關(guān)注自己生物學(xué)意義上的身體,同時也要重視認(rèn)知域中的技術(shù)設(shè)備,甚至是虛擬世界中的實體。應(yīng)對認(rèn)知域延展帶來的安全挑戰(zhàn),需要政府、專家、個人等各方面共同努力。
政府層面。在認(rèn)知域延展中,政府需要通過倫理與法律的規(guī)制防止個人的認(rèn)知域受到他人侵犯。將外部的技術(shù)設(shè)備納入認(rèn)知域,意味著需要按照“倫理對等性原則”(ethical parity principle)[13]和“法律對等性原則”(legal parity principle)[14]給予它們同等的倫理與法律地位。有學(xué)者直接建議,將對認(rèn)知技術(shù)的破壞視同人身攻擊。[15]
以前文提到的奧托為例,奧托的筆記本里記錄了他每天發(fā)生的事情,他對一些事件的看法還有當(dāng)時的情緒。如果奧托的筆記本被別人偷竊,他的認(rèn)知能力就會顯著下降。因而,這不應(yīng)該只被當(dāng)作一樁個人財物被盜案,還應(yīng)當(dāng)視作一種人身攻擊。類似的,在患有阿爾茲海默癥的病人家中,物品的位置、擺放順序可能都是保障患者自如行動的重要支撐;如果被人隨意破壞,攪亂了原有的安置秩序,那么患者的行動能力就會大不如前。這就好比是被迫攝入過量酒精而擾亂了大腦的正常思維,同樣構(gòu)成了一種不道德的行為。
與此同時,如果人們的認(rèn)知域享有這樣的保護(hù),那么人們也應(yīng)該承擔(dān)運用認(rèn)知域內(nèi)的技術(shù)設(shè)備侵犯他人帶來的后果。目前的技術(shù)設(shè)備尚不能作為一個完整的道德行動者,無法承擔(dān)全部的道德責(zé)任。通過建立嚴(yán)格的倫理和法律規(guī)范,并遵循權(quán)責(zé)一致的原則,我們可以確立明確的責(zé)任分配機(jī)制,這有利于警示人們重視認(rèn)知環(huán)境,維護(hù)認(rèn)知域的安全。
專家層面。認(rèn)知域延展中“人—技”關(guān)系出現(xiàn)的新變化要求人類與認(rèn)知技術(shù)協(xié)同發(fā)展,這就需要專家在技術(shù)設(shè)計之初就將與認(rèn)知域安全相關(guān)的倫理問題納入考量。認(rèn)知域作為一個整體,域內(nèi)各個要素之間密切交互,構(gòu)成了一個復(fù)雜系統(tǒng),它要求專家在設(shè)計認(rèn)知產(chǎn)品時,事先就考慮認(rèn)知技術(shù)的目標(biāo)與價值規(guī)范,使之能更好地融入人們的認(rèn)知域。如果一個認(rèn)知域內(nèi)各個部分擁有的目標(biāo)不同,這個認(rèn)知域能發(fā)揮出的認(rèn)知水平和行動能力就會受到限制。例如,機(jī)器在完成工作要求時可能會無視其造成的潛在傷害。各不同部分之間的分歧會導(dǎo)致整體的認(rèn)知力、行動力下降。如果專家在設(shè)計認(rèn)知技術(shù)設(shè)備時就考慮到了人機(jī)協(xié)作的理念,那么推出的產(chǎn)品會更加契合人類的認(rèn)知過程,更加易于與人類認(rèn)知域相融合。
另外,考慮到提供認(rèn)知技術(shù)的公司與個人用戶之間存在著巨大的權(quán)力不對等關(guān)系,專家需要在企業(yè)和公眾之間起到協(xié)調(diào)作用。大多數(shù)用戶作為外行,有時難以清晰地表達(dá)自己的訴求,或者無法選擇最符合自身利益的服務(wù)方案。用戶即使能說明自己的訴求,也很難左右公司在技術(shù)路線方面的規(guī)劃。此外,商業(yè)公司使用的認(rèn)知技術(shù)本就由于商業(yè)機(jī)密的原因而不能公開相關(guān)的細(xì)節(jié),相關(guān)的監(jiān)管手段也難以觸及算法層面。因此,專家應(yīng)當(dāng)承擔(dān)協(xié)調(diào)者的角色,調(diào)節(jié)公司和用戶之間的不對等關(guān)系,平衡商業(yè)利益和用戶利益,通過不斷改良認(rèn)知技術(shù)產(chǎn)品與用戶之間的互動,提升認(rèn)知技術(shù)設(shè)備的使用性能和安全水平,促進(jìn)認(rèn)知域內(nèi)部的交互與認(rèn)知載體的耦合。
個人層面。隨著認(rèn)知域的延展,認(rèn)知技術(shù)已經(jīng)成為了人類生活的背景。人類要想在智能化、自動化、信息化的認(rèn)知背景中掌握主動權(quán),就需要注重提升自身的“數(shù)字素養(yǎng)”(digital literacy),理解并利用好認(rèn)知技術(shù)。
所謂“數(shù)字素養(yǎng)”,指的是“理解并利用通過計算機(jī)呈現(xiàn)的多種來源、不同形式的信息的能力”。[16]當(dāng)前,“我國的公民數(shù)字素養(yǎng)平均水平不高,特定區(qū)域群體的數(shù)字素養(yǎng)與技能與其他區(qū)域群體存在較大差距”。[17]這不僅要求人們學(xué)會運用數(shù)字技能滿足信息需求,而且需要人們能夠辨別利用認(rèn)知技術(shù)獲得的信息。就以前文提到的虛假信息和無意義信息所造成的認(rèn)知威脅為例,一方面,企業(yè)可以升級技術(shù)手段,從客觀上降低認(rèn)知域被侵入的可能;另一方面,應(yīng)盡可能教育公眾提升認(rèn)知辨別能力,如識別真假字跡、發(fā)現(xiàn)換臉視頻中奇怪的表情、人造音頻中不合理的唱法等,以避免虛假信息給認(rèn)知域帶來侵害。
此外,人們在利用認(rèn)知技術(shù)的同時,還應(yīng)注重對智能本身的理解與評估。一方面,在人類智能之外還有動物智能、機(jī)器智能;通過研究其他的智能,人們可以認(rèn)識到其他的認(rèn)知機(jī)制,發(fā)現(xiàn)人類自身在認(rèn)知上的優(yōu)缺點,從而明確可以改善認(rèn)知能力的方向。而且,每種智能的衡量方式也是不一樣的;當(dāng)人們的認(rèn)知域不再是單純的內(nèi)部因素時,人們也需要改變衡量智能的方式,來評價自己在認(rèn)知水平上的變化。這意味著針對人類設(shè)計的IQ測試需要被替換成可衡量異質(zhì)系統(tǒng)的多維度評價體系。而挑選衡量標(biāo)準(zhǔn)的需求反過來又要求人們理解其他智能的運行機(jī)制。另一方面,人類難免有偏見,人類設(shè)計的認(rèn)知技術(shù)設(shè)備也是如此。有研究發(fā)現(xiàn),在人們的自然語言中,人們更傾向于將典型的女性名字與家庭詞而不是職業(yè)詞配對,將典型的非裔美國人名與令人不悅的詞匯相連,將典型的男性名字與科學(xué)、數(shù)學(xué)詞匯關(guān)聯(lián)等。[18]因為自然語言中存在這些潛在偏見,人們使用自然語言訓(xùn)練認(rèn)知技術(shù)設(shè)備時,這些偏見自然而然地滲透到了技術(shù)設(shè)備中。因此,當(dāng)人們與這些設(shè)備發(fā)生交互時,可以通過設(shè)備輸出的異常結(jié)果來認(rèn)識自己的偏見,并由此能夠更加深入地理解認(rèn)知域中不同要素之間是如何相互關(guān)聯(lián)和協(xié)同作用的。同時,為了提升認(rèn)知域的合作質(zhì)量,人們也應(yīng)該思考如何向設(shè)備輸入高質(zhì)量的、少偏見的訓(xùn)練數(shù)據(jù),讓整個認(rèn)知域產(chǎn)出的結(jié)果變得相對公正。
結(jié)論
認(rèn)知域包含的不僅僅是人類大腦內(nèi)部的因素,它還可以囊括人們所使用的認(rèn)知技術(shù)設(shè)備,甚至容納社會機(jī)構(gòu)等更多異質(zhì)性的構(gòu)成要素。面對認(rèn)知域的延展,人們在高度重視認(rèn)知安全問題的同時,應(yīng)該清楚地認(rèn)識到認(rèn)知域延展過程中出現(xiàn)的“人—技”關(guān)系新特點。人們需要建立與認(rèn)知技術(shù)合作共存的信心,準(zhǔn)備好應(yīng)對策略。對于政府來說,需要考慮制定規(guī)則防止他人侵犯個人的認(rèn)知域,創(chuàng)造安全的認(rèn)知環(huán)境。對于專家來說,需要在認(rèn)知技術(shù)設(shè)備的設(shè)計中納入更全面的倫理考量,促進(jìn)認(rèn)知域內(nèi)的人機(jī)順暢交互。對于民眾來說,需要提升自己的數(shù)字素養(yǎng),學(xué)會用好認(rèn)知技術(shù),在與認(rèn)知技術(shù)的交互中增強(qiáng)認(rèn)知能力,實現(xiàn)認(rèn)知主體和認(rèn)知技術(shù)的協(xié)調(diào)發(fā)展。
(本文系教育部人文社會科學(xué)重點研究基地重大項目“當(dāng)代認(rèn)知哲學(xué)基礎(chǔ)理論問題研究”的階段性成果,項目編號:22JJD720007;北京大學(xué)哲學(xué)系博士研究生廖新媛、楊軍潔對本文亦有重要貢獻(xiàn))
注釋
[1]P. Smart, "The Web–Extended Mind," Metaphilosophy, 2012, 43(4).
[2]A. Clark and D. Chalmers, "The Extended Mind," Analysis, 1998, 58(1).
[3]劉曉力:《延展認(rèn)知與延展心靈論辨析》,《中國社會科學(xué)》,2010年第1期。
[4]D. Chalmers, Reality+: Virtual worlds and the problems of philosophy, W. W. Norton & Company, 2022.
[5]D. S. Alberts, "Network centric warfare: current status and way ahead," Journal of Defence Science, 2003, 8(3).
[6]K. Sterelny, "Minds: Extended or scaffolded?" Phenomenology and the Cognitive Sciences, 2021, 9(4).
[7]J. A. Carter. "Varieties of (Extended) Thought Manipulation," in M. J. Blitz and J. C. Bublitz (eds.), The Law and Ethics of Freedom of Thought, Volume 1, Springer International Publishing, 2021, pp. 291–309.
[8]D. Ihde, A phenomenology of technics, Chichester UK: Wiley–Blackwell, 2010.
[9]G. Marcus, "Deep Learning: A Critical Appraisal," ArXiv, 2018.
[ 0]J. Zerilli, et al., "Transparency in Algorithmic and Human Decision–Making: Is There a Double Standard?" Philosophy & Technology, 2019, 32(4).
[11]P. Smart, "Human–extended machine cognition," Cognitive Systems Research, 2018, 49.
[12]A. E. Buchanan, Beyond humanity? The ethics of biomedical enhancement, Oxford University Press, 2011.
[13]N. Levy, Neuroethics: Challenges for the 21st Century, Cambridge University Press, 2007.
[14]M. Blitz, "Freedom of Thoughts for the Extended Mind: Cognitive Enhancement and the Constitution," Wisconsin Law Review, 2010, 4.
[15]J. A. Carter and S. O. Palermos, "Is Having Your Computer Compromised a Personal Assault? The Ethics of Extended Cognition," Journal of the American Philosophical Association, 2016, 2(4).
[16]P. Gilster, Digital literacy, New York: Wiley Computer Pub, 1997.
[17]李正風(fēng)、王碩:《數(shù)字素養(yǎng)、數(shù)據(jù)權(quán)利與數(shù)字倫理》,《科普研究》,2022年第6期。
[18]G. M. Johnson, "Algorithmic bias: On the implicit biases of social technology," Synthese, 2021, 198(10).
Extended Cognition: Security Challenges and Strategies
Zhou Cheng
Abstract: The cognitive domain, encompassing the content and space of cognitive activities, has been considered as confined solely to the human brain. However, more and more scholars now argue that human cognition can be partially composed by factors outside of human brains, resulting in the extension of the cognitive domain to include various elements, such as cognitive technology. The concept of extended cognition raises concerns regarding the potential intrusion of false information and manipulation of individuals' cognitive domains. Consequently, addressing the security challenges associated with extended cognition necessitates a comprehensive understanding of the intricate "human-technology relations". Meanwhile, cognitive security requires a collaborative approach involving ethical and legal considerations, technical design, and digital literacy, which should involve joint efforts from governments, experts, and individuals.
Keywords: cognitive domain, cognition extension, cognitive security, false information, man-machine collaboration