算法(Algorithm),原本只是解決特定問題的數(shù)理路徑,但現(xiàn)在作為人工智能的“底層代碼”,已經(jīng)嵌入社會(huì)資源的調(diào)配過程。毫不夸張地說,基于算法的智能應(yīng)用,正逐漸改變著人們的“存在方式”——社交媒體塑造電子身份、出行軟件記錄活動(dòng)軌跡、電子黃頁(yè)等革新生活方式、網(wǎng)絡(luò)商城改變消費(fèi)理念、搜索引擎劃定知識(shí)邊界、生成式人工智能主導(dǎo)知識(shí)傳播。就此而論,“算法社會(huì)”已經(jīng)悄然降臨。
算法可能引發(fā)的風(fēng)險(xiǎn)及成因
算法雖具有便利生活、改善決策、提高效率、優(yōu)化產(chǎn)能等優(yōu)勢(shì),但同時(shí)也因缺乏有效的規(guī)制而存在諸多難以根除的風(fēng)險(xiǎn),第一,過度依賴算法決策。即便是經(jīng)驗(yàn)豐富的司機(jī),完全離開手機(jī)導(dǎo)航,也會(huì)有如坐針氈之感。隨著輔助性算法日趨頻繁地介入人們的日常決策,算法同人類的關(guān)系好比“象與騎象人”,很難確定最終決定行走方向的究竟是作為潛意識(shí)的大象,還是作為顯意識(shí)的騎象人。第二,“信息繭房”充斥信息獲取過程。大型語(yǔ)言模型打底的生成式人工智能可輕易實(shí)現(xiàn)海量?jī)?nèi)容的海量生產(chǎn),若輔之以基于推薦算法的“精準(zhǔn)推送”,人們將被困于由人工智能主導(dǎo)的“信息繭房”之中,甚至將不得不迎合由算法所引導(dǎo)的潮流。第三,技術(shù)黑箱所隱匿的決策偏誤。數(shù)據(jù)集偏差、編程人員的自我價(jià)值負(fù)載都可能導(dǎo)致非中立、不公正的算法結(jié)果。資信審查算法對(duì)于不同性別的利率差等,反映出算法對(duì)既有社會(huì)性偏見的強(qiáng)化,AI聊天軟件屢屢發(fā)表的有喜好偏見的言論,更是對(duì)這一問題的直觀體現(xiàn)。
算法運(yùn)行原理及步驟
無論是乘客在網(wǎng)約車平臺(tái)選擇不同檔次的出租車、用戶在手機(jī)短視頻應(yīng)用中的互動(dòng),抑或是商業(yè)銀行通過評(píng)分系統(tǒng)考察客戶資信等,這些日常行為所包含的算法活動(dòng)可大致劃分為三個(gè)典型步驟:第一步,平臺(tái)端通過(主動(dòng)或被動(dòng)的)數(shù)據(jù)挖掘,獲取用戶、消費(fèi)者及同類群體的原始數(shù)據(jù),例如所在位置、健康信息、消費(fèi)記錄、瀏覽歷史、行為言論、運(yùn)動(dòng)軌跡等;第二步,云端將規(guī)整后的數(shù)據(jù)輸入機(jī)器學(xué)習(xí)模型,輸出概率、排名、風(fēng)險(xiǎn)、傾向、估值等具有明確指向性的分?jǐn)?shù)和結(jié)果;第三步,應(yīng)用終端生成可供決策的評(píng)價(jià)和預(yù)測(cè)報(bào)告,例如,搜索引擎生成排序界面、自動(dòng)駕駛系統(tǒng)規(guī)劃行車路徑、問診機(jī)器人給出醫(yī)療建議、出行幫手設(shè)計(jì)旅行方案、電子商務(wù)網(wǎng)站識(shí)別消費(fèi)偏好并推送廣告、平行管理與控制的混合增強(qiáng)智能框架進(jìn)行虛擬現(xiàn)實(shí)等。
人工智能的“智能”水平,事實(shí)上同“人工”在上述步驟中的含量成反比,但這并不能否認(rèn)適當(dāng)?shù)?ldquo;人工”干預(yù)對(duì)于風(fēng)險(xiǎn)治理的效果。工具的好壞取決于使用它的人,促進(jìn)算法向善的關(guān)鍵在于算法背后的人之向善。從前述步驟拆解來看,有必要將“以人為本”的精神貫徹運(yùn)用至算法活動(dòng)的全流程。算法應(yīng)用具有顯著溢出效應(yīng),正確使用可推動(dòng)經(jīng)濟(jì)社會(huì)各領(lǐng)域從數(shù)字化、網(wǎng)絡(luò)化向智能化加速躍升,實(shí)現(xiàn)對(duì)社會(huì)、經(jīng)濟(jì)和生活的全面推動(dòng)。尤其是先進(jìn)的法律制度可以為確保算法活動(dòng)不至于具有脅迫性而建立防火墻。
算法治理及對(duì)策
對(duì)算法規(guī)制的目標(biāo)在于:一方面,防范本來應(yīng)當(dāng)是中立的人工智能應(yīng)用,成為少數(shù)人的集權(quán);另一方面,為技術(shù)優(yōu)勢(shì)方和算法受眾提供商談場(chǎng)域,避免法律淪為“技術(shù)寡頭”的幫兇?;仡櫵惴ɑ顒?dòng)的典型步驟,規(guī)制算法技術(shù)風(fēng)險(xiǎn)可從以下三方面展開。
保障用戶和受眾享有不受算法“支配”的權(quán)利。算法因異化而膨脹出的權(quán)力越是絕對(duì),人類的尊嚴(yán)就越受威脅。只有在決定自身利益的關(guān)鍵事務(wù)上享有積極參與的權(quán)利,人類才有可能維持和延續(xù)在知識(shí)、經(jīng)驗(yàn)和道德上的卓越。為此,有三個(gè)層次的權(quán)利,效果從低到高依次為允許數(shù)據(jù)主體修訂或替換不合理數(shù)據(jù)的“更正權(quán)”、允許數(shù)據(jù)主體要求數(shù)據(jù)控制者擦除關(guān)于其個(gè)人數(shù)據(jù)的“被遺忘權(quán)”以及允許個(gè)體不受自動(dòng)化決策限制的“脫離自動(dòng)化決策權(quán)”。
加強(qiáng)以預(yù)期效果為導(dǎo)向的信息披露。“算法透明”一直是算法規(guī)制的重點(diǎn)方向,但各國(guó)政策制定者就如何實(shí)現(xiàn)“算法透明”觀點(diǎn)不一。2021年我國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室和工信部等部門聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,要求算法推薦服務(wù)提供者制定并公開算法推薦服務(wù)相關(guān)規(guī)則。落實(shí)算法透明的核心在于有效披露算法決策的邏輯、運(yùn)算和分析過程。為此,技術(shù)方必須主動(dòng)解釋清楚智能應(yīng)用的軟硬件和外部環(huán)境之間的相互作用將如何影響算法的行為模式,并清晰直觀地就以下事項(xiàng)作出真實(shí)、準(zhǔn)確、完整的信息披露:第一,供機(jī)器學(xué)習(xí)模型使用的數(shù)據(jù)的來源、典型特征和分類方式;第二,終端程序的運(yùn)作原理、代碼邏輯和預(yù)期效果;第三,可能存在的系統(tǒng)偏差、運(yùn)行故障和矯正機(jī)制;第四,智能應(yīng)用的即期效果和遠(yuǎn)期影響。對(duì)于算法程序的重大修改,技術(shù)方有必要及時(shí)進(jìn)行補(bǔ)充信息披露。
確保責(zé)任主體鏈條的追蹤識(shí)別。目前,隨著機(jī)器學(xué)習(xí)的不斷進(jìn)步以及數(shù)字技術(shù)的相互開源,很多算法程序已經(jīng)自我改良到可能完全偏離其創(chuàng)作者預(yù)設(shè)但尚未獲得獨(dú)立法律地位的地步,這種復(fù)雜性進(jìn)一步加大了損害賠償訴訟確定責(zé)任主體的難度。在人工智能主體尚未獲得明確的法律地位之前,確保其算法程序能夠被追蹤至可識(shí)別的造物者是當(dāng)前責(zé)任體系構(gòu)建的基礎(chǔ)。可資借鑒的制度設(shè)計(jì)是無人機(jī)牌照試點(diǎn),如,強(qiáng)化算法運(yùn)用的事后監(jiān)管和效果追蹤,倒逼技術(shù)方事先排除某些會(huì)產(chǎn)生不公現(xiàn)象功能的置入。對(duì)于集成不同來源、多個(gè)算法程序的人工智能應(yīng)用,跨境數(shù)據(jù)傳輸中的常見業(yè)務(wù)關(guān)聯(lián)協(xié)議,提供了可類推適用的解決方案,可考慮在封閉應(yīng)用和開放應(yīng)用中都置入硬核編碼的審計(jì)日志,以便為將來可能的責(zé)任劃分留下記錄。