人工智能技術具有正、反兩方面的作用,在造福于人類的同時,也存在各種風險。理論上可能存在以下四種風險。
技術失控。技術失控指的是技術的發(fā)展超越了人類的控制能力,甚至人類被技術控制,這是很多人最為擔憂的風險?,F(xiàn)有人工智能技術僅在滿足強封閉性準則的條件下,才可發(fā)揮其強大功能;在非封閉的場景中,現(xiàn)有人工智能技術的能力遠遠不如人類,而現(xiàn)實世界的大部分場景是非封閉的。所以,目前不存在技術失控風險。
技術誤用。與信息技術相關的技術誤用包括數(shù)據(jù)隱私問題、安全性問題和公平性問題等,人工智能技術的應用可以放大這些問題的嚴重程度,也可能產(chǎn)生新的技術誤用類型。在現(xiàn)有條件下,人工智能技術本身是中性的,是否出現(xiàn)誤用完全取決于技術的使用。因此,對人工智能技術誤用的重視和風險防范應提上議事日程。
應用風險。應用風險指的是技術應用導致負面社會后果的可能性。目前人們最擔心的是人工智能在某些行業(yè)中的普遍應用導致工作崗位的大量減少。應用風險是由技術的應用引起的,因此關鍵在于對應用的掌控。根據(jù)強封閉性準則,人工智能技術在實體經(jīng)濟中的應用往往需要借助于場景改造,而場景改造完全處于人類的控制之下,做多做少取決于相關的產(chǎn)業(yè)決策。
管理失誤。人工智能是一項新技術,它的應用是一項新事物,社會缺乏管理經(jīng)驗,容易陷入“一管就死,一放就亂”的局面。為此,更需要深入理解人工智能現(xiàn)有成果的技術本質和技術條件,確保監(jiān)管措施的針對性、有效性。
目前對人工智能存在三種認識誤區(qū):一是人工智能已經(jīng)無所不能,因此現(xiàn)有人工智能技術可以無條件地應用。根據(jù)強封閉性準則,現(xiàn)有人工智能技術遠未達到無所不能的程度,應用是有條件的。因此,在產(chǎn)業(yè)應用中亟須加強對強封閉性準則的認識,加強場景裁剪和場景改造,避免違反強封閉性準則的盲目應用,而這種盲目目前在國內(nèi)外都十分普遍,不僅浪費資源,更嚴重的是干擾了有希望成功的應用。
二是現(xiàn)有人工智能技術不能大規(guī)模實際應用,因為現(xiàn)有人工智能技術依賴于人工標注,并不智能?,F(xiàn)有人工智能技術并不局限于深度學習,而暴力法和訓練法的結合可以避免人工標注,而且符合強封閉性準則的應用場景可以有效地實施數(shù)據(jù)采集和人工標注。目前一些應用不成功的原因在于違反了強封閉性準則,而不是因為現(xiàn)有人工智能技術不能應用。這個誤區(qū)往往發(fā)生在對人工智能技術有一定了解而認識不到位的情況下。與第一種誤區(qū)一樣,這種誤解會嚴重影響我國人工智能產(chǎn)業(yè)應用的進度。
三是在未來20年—30年內(nèi),人工智能技術發(fā)展將超越某個臨界點,之后人工智能將不受人類控制自由發(fā)展。根據(jù)強封閉性準則和全球人工智能研究現(xiàn)狀,這種“奇點說”在技術范圍內(nèi)沒有任何科學依據(jù)。封閉性準則包含的一些條件,如模型的語義完全性、代表性數(shù)據(jù)集的有限確定性,通常需要借助于強封閉性準則要求的人工措施的輔助才可以滿足。假想未來有可能突破這些限制,與人工智能目前已具備突破這些限制的能力,完全是兩回事。即使將來突破了某種限制,還會有新的限制加以約束。這一類說法無形中假定,可以存在脫離具體條件的人工智能技術。這種技術是否可能存在,目前并沒有任何科學證據(jù)的支持,有待于未來的觀察和研判。
以上三種誤區(qū)是我國人工智能發(fā)展的主要思想障礙。封閉性和強封閉性準則立足于現(xiàn)有人工智能技術本質,為消除這些誤區(qū)提供了依據(jù),也為觀察、思考和研究人工智能發(fā)展的其他問題,避免重復以往人為放大“周期性起伏”的干擾,提供了一種新的視角。
(作者為中國科學技術大學教授)