網(wǎng)站首頁 | 網(wǎng)站地圖

人民論壇網(wǎng)·國家治理網(wǎng)> 前沿理論> 正文

算法治理的基本路徑與核心理念

摘 要:算法的設計或許可以在數(shù)學邏輯上做到完美,但缺乏對人性和社會環(huán)境的綜合考慮,從“真空”環(huán)境中誕生的算法本身帶有機械性。一味追求效率、不斷壓縮配送時間的外賣配送算法,即體現(xiàn)了算法程序的不盡合理之處。面對算法缺陷及其產(chǎn)生的問題,應將算法嵌入到整個社會體系中評估,分析算法運行所牽涉的各個環(huán)節(jié),以體系化的思維為算法向善提供解決方案。

關鍵詞:人工智能 大數(shù)據(jù) 算法治理

【中圖分類號】D630 【文獻標識碼】A

法缺陷及其產(chǎn)生的問題

以外賣配送系統(tǒng)為例,外賣平臺利用大數(shù)據(jù)分析計算最優(yōu)配送路徑,極大縮短了騎手的配送時間,提高了配送效率。但也存在諸多問題,有些是算法本身缺陷所導致的,有些則因其他社會問題與算法相伴而產(chǎn)生。

算法程序中可能存在不盡合理之處。算法中的程序幾乎是算法控制者單方設定的,即使程序中可能有不盡合理之處,算法相對方也只能被動接受。例如,外賣配送系統(tǒng)中設定了騎手等級,騎手需要通過每日登錄APP、分享邀請有禮活動鏈接、上傳健康證、完成各種訂單配送等方式獲取晉升等級所需要的積分。其中也有減分項目,比如配送超時減3分,獲得一星差評或不滿意評價減5分等,甚至一個差評或延時會直接扣除騎手工資。在這種規(guī)則之下,配送時間成為非常重要的考核指標,騎手面臨很大壓力。盡管這些規(guī)則在人性化、合理性上還值得商榷,但騎手只能被動適應,接受算法規(guī)則的約束,甚至對算法產(chǎn)生依賴。

算法容易使個體失去自主性。自泰勒提出標準化管理模式之后,工作逐漸被標準化和簡單化,工人操作的自由度降低了,簡單重復的動作讓人越來越像機器。正如媒體曾經(jīng)報道的富士康工廠的情況一樣,在高度標準化的生產(chǎn)中,工人的工作效率以秒來計算,工人往往處于高度疲態(tài)和枯燥之中。算法的運行與此相似,算法具有隱蔽性和高度專業(yè)性的特征,每個參與算法的個體就是一個數(shù)據(jù)節(jié)點,在算法高速運轉中,個體只能被動接受信息并執(zhí)行算法命令。騎手屬于勞動密集型職業(yè),工作中需要耗費大量精力,若只受算法支配而喪失自主性,他們作為勞動者的休息權則無法得到保障。同時,騎手與社會其他群體具有緊密聯(lián)系,一旦發(fā)生事故不僅會傷害自己,還會傷及他人。從這一點來看,保障騎手休息的權利也在一定程度上意味著保護社會公共利益。

僅靠算法的自我迭代難以有效解決問題。算法的設計或許可以在數(shù)學邏輯上做到完美,但缺乏對人性和社會環(huán)境的綜合考慮,從“真空”環(huán)境中誕生的算法本身帶有機械性。在外賣配送算法中,為了追求效率,可以對所有阻礙因素進行優(yōu)化,把配送時間不斷壓縮。但如果因為計算最優(yōu)路徑而忽視了實際道路狀況、實時天氣狀況和小區(qū)管理情況等影響因素,計算結果往往就會不準確,算法不斷迭代的過程也就可能演變成了加大騎手困難的過程。實際上,其他社會因素會深刻影響算法的運轉情況。現(xiàn)實中經(jīng)??梢钥吹剑捎诔鞘薪煌ㄟ`章查處、電動車限速標準執(zhí)行不夠嚴格,大量違章、超速外賣騎手電動車上路等現(xiàn)象。除了交通規(guī)則外,一些小區(qū)的管理也需要調整,如一些商務樓、醫(yī)院、小區(qū)等不允許騎手進入,騎手只能在外等待或者步行送餐,最后導致送餐延遲。如果忽視這些問題,單靠算法本身的迭代是無法有效解決問題的。

算法治理的路徑

為應對上述算法的缺陷,可以從內部的算法自我優(yōu)化與外部的監(jiān)督規(guī)范中找到解決路徑。

設計算法應該走出“真空”接受社會實驗。算法背后是代碼,代碼是“冰冷”的,沒有人文溫度,忽視人性的算法無法為人類帶來福祉。在現(xiàn)行外賣配送算法中,如果騎手因偶然因素實現(xiàn)了快速送餐,算法就會提供獎勵,讓騎手接到更多訂單。這樣一來,騎手出于利益最大化的動機,肯定會追求速度越快越好,訂單越多越好,由此陷入惡性循環(huán)。為了避免速度成為唯一的考量因素,算法評價機制中也應該引入其他考量因素,比如為從來沒有發(fā)生交通事故的騎手提供獎勵,引導騎手更加注意安全。

制定算法規(guī)則需要多方參與盡量避免不合理之處。基于機器學習的算法具有“黑箱”特征,算法相對方無法就算法規(guī)則提出建議或意見,只能被迫“追趕”算法設定的目標。多方參與規(guī)則制定是正當程序的必然要求,比如一些電商平臺推出“規(guī)則眾議院”,平臺上的買賣雙方都可以通過眾議院機制就規(guī)則制定發(fā)表意見。也有學者提出算法解釋權,即賦予主體知曉及理解算法運行邏輯的權利。該觀點認為,受到自動化決策不利影響的人應有權知曉決定的內容與理由,并擁有申訴和申辯的機會。算法解釋權是賦予個體對抗“算法權力”的重要武器,因為個體知悉算法規(guī)則后才能就其不合理之處提出建議,并參與到規(guī)則的制定之中。

應對算法的負外部性需要多種公共政策相互補充。算法實際是嵌入在社會的多樣應用場景中的,各個場景所牽涉的主體、外部因素和行為規(guī)范都不相同。因此,不能將算法視為單純的技術問題進行治理,而要匹配不同政策工具進行綜合治理。對于“困在系統(tǒng)”中的騎手,國家應該重視對這部分人群勞動權益的保障,特別是休息、薪酬、安全等合法權益。外賣平臺應該參照其他平臺的舉措,設置強制騎手休息的規(guī)則,保障騎手安全,進而維護社會安全。為了應對騎手闖紅燈、超速等問題,交通管理部門也應該嚴格制定和執(zhí)行交管規(guī)則,對騎手進行外部約束。社區(qū)管理部門也應參與其中,對外賣、快遞進社區(qū)等管理規(guī)范進行完善細化,如允許騎手安全送餐,或者配置取餐柜等,緩解騎手“最后一公里”送餐難的問題。

為算法建立法律監(jiān)管與道德約束機制。2017年1月,美國計算機協(xié)會專門發(fā)布了算法治理倫理原則,涵蓋利益相關者責任、救濟機制、算法使用機構責任、鼓勵可解釋算法研發(fā)、數(shù)據(jù)治理、算法審查要求、實時檢查責任等七個方面的內容。2019年4月,美國參議員提出《2019年算法問責法案》,要求美國聯(lián)邦貿易委員會對企業(yè)進行算法審查。歐盟也在《人工智能時代:確立以人為本的歐盟人工智能戰(zhàn)略》《通用數(shù)據(jù)保護條例》和《人工智能道德準則》等多個文件中,強調以價值觀引導人工智能技術的發(fā)展。需要從外部規(guī)范的角度為算法制定倫理標準,并建立相應的倫理審查制度。特別是在算法設計和研發(fā)的標準、規(guī)則和透明度等方面出臺法律規(guī)范,并建立算法問責機制,保障個體權利,包括算法解釋的權利、更正或修改數(shù)據(jù)的權利、退出算法決策的選擇權等。

算法治理的理念

治理算法需要以基本原則和理念為指導,并根據(jù)情況的變化適時調整算法治理的具體方法。

算法治理應堅持利益平衡原則。利益平衡既包括算法內部所涉主體之間的利益平衡,也包括算法使用者與社會公眾之間的利益平衡。通常外賣平臺將消費者置于首位,而商家次之。在這種機制下,平臺為了消費者的滿意只能“壓迫”騎手。算法使用者應該平衡好這三方的利益,對算法的治理也應該平衡好企業(yè)與社會公眾之間的利益,在尊重企業(yè)逐利天性的基礎上為算法立規(guī)矩,保證算法在正確的軌道上運行,只有這樣才不會因噎廢食。

算法治理應堅持人本主義。在算法時代,尊重個體主體性、自治性和人格尊嚴始終是發(fā)展底線,算法治理也應該注重保護人類尊嚴、公民權利以及社會公平。特別是要加大對弱勢群體的關注,避免“數(shù)字鴻溝”,實現(xiàn)實質公平。可以通過強化企業(yè)社會責任的方式在算法治理中體現(xiàn)人文主義,比如從社會福利的角度評估企業(yè)在關懷弱勢群體、保護用戶隱私、尊重個體人格以及勞動者休息權利等方面作出的努力。

總之,算法治理是一項長期工程,算法在不斷演進,對算法的治理也應該不斷迭代,其中算法問責機制、算法評估機制、算法監(jiān)督機制都是需要繼續(xù)討論的重要話題。對算法的治理不應局限于算法本身,而是需要將算法嵌入到整個社會體系中評估,分析算法運行所牽涉的各個環(huán)節(jié),以體系化的思維為算法向善提供解決方案。

【本文作者為清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長;清華大學公共管理學院博士后曾雄對本文亦有貢獻】

責編:羅 婷 / 司文君

聲明:本文為《國家治理》周刊原創(chuàng)內容,任何單位或個人轉載請回復國家治理周刊微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

責任編輯:賀勝蘭