在AI治理中,我更為關(guān)注算法治理和數(shù)據(jù)權(quán)利保護問題。就AI來講,它是一種生活要素數(shù)據(jù)化和機器自動化決策為核心的人工智能算法系統(tǒng)。因此,算法問題和數(shù)據(jù)權(quán)利保護是AI領域的核心問題,而這兩個問題也是傳統(tǒng)法學研究和治理研究關(guān)注不夠的問題。
當前關(guān)于AI治理,我認為存在的爭議問題主要包括是否需要給AI賦予法律主體地位,人工智能創(chuàng)作的作品是否以及如何進行知識產(chǎn)權(quán)保護,算法決策出現(xiàn)價值沖突如何進行選擇,數(shù)據(jù)權(quán)、信息權(quán)和隱私權(quán)的關(guān)系等問題。
對于AI治理,我認為首先應當研究AI的運作邏輯,探求AI帶來社會問題的結(jié)構(gòu)性因素,然后,在法律治理的精神引領下,建立政府-平臺-商戶、公權(quán)力-社會權(quán)力-私權(quán)利三元結(jié)構(gòu)的治理模式。政府除了需要改變過去那種“命令加控制”的管控方式外,還需要構(gòu)建算法規(guī)制的合作治理路徑。在這種合作治理中,政府監(jiān)管機構(gòu)應當通過“提高標準化程度和自動化程度”和使用“司法測試和新技術(shù)”來敦促算法相關(guān)企業(yè)遵守法律法規(guī)和其他內(nèi)控性質(zhì)的規(guī)范。社會第三方力量應當提供全自動的算法風險分析和控制。算法平臺和企業(yè),應當嚴格履行防范算法風險的義務,不斷調(diào)整信息技術(shù)系統(tǒng),制定個性化的內(nèi)部算法風險管理流程。
(作者為山東大學法學院與網(wǎng)絡安全學院教授)