網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

關(guān)于人工智能治理問題的若干思考(2)

庫茲韋爾認(rèn)為,人工智能可以全面超越人類智能,而且超越的速度遠(yuǎn)超過人們的預(yù)期。他認(rèn)為,2045年是“奇點(diǎn)”到達(dá)的時(shí)期,這將是極具深刻性和分裂性的時(shí)間點(diǎn),非生物智能在這一年將會(huì)10億倍于今天所有人類的智慧。④當(dāng)然,大多數(shù)科學(xué)家和人工智能專家對(duì)人工智能全面超越人類持否定態(tài)度,認(rèn)為這是杞人憂天式的臆想,對(duì)人工智能征服人類的擔(dān)心就像擔(dān)心火星上塞車一樣。航天器發(fā)明之前,其可能墜毀的風(fēng)險(xiǎn)擔(dān)憂并沒有阻止航空航天事業(yè)的發(fā)展。從這一點(diǎn)說,我們幾乎沒有可能阻止人工智能的快速發(fā)展,但從現(xiàn)在起,給予人工智能更多的人文關(guān)注、價(jià)值判斷和理性思考,是一種比較正確的態(tài)度。事實(shí)上,人文社會(huì)科學(xué)的發(fā)展應(yīng)該走在自然科學(xué)的前面,在人工智能安全問題之前做好充分的理論準(zhǔn)備。

第二類問題是人工智能可能引發(fā)的安全問題。其一是操作權(quán)失控或惡意使用導(dǎo)致的安全威脅。人工智能對(duì)人類的利害作用取決于掌控和使用人工智能的人。例如,黑客可能通過智能方法發(fā)起網(wǎng)絡(luò)攻擊,還可利用人工智能技術(shù)非法竊取私人信息。其二是技術(shù)失控或管理不當(dāng)所致的安全問題。某些技術(shù)缺陷也會(huì)導(dǎo)致人工智能系統(tǒng)出現(xiàn)安全隱患,比如深度學(xué)習(xí)采用的黑箱模式會(huì)使模型可解釋性不強(qiáng),機(jī)器人、無人智能系統(tǒng)的設(shè)計(jì)、生產(chǎn)不當(dāng)會(huì)導(dǎo)致運(yùn)行異常等。

第三類是人工智能倫理規(guī)范的挑戰(zhàn)。倫理問題是人工智能技術(shù)應(yīng)用值得關(guān)注的問題。如人工智能的行為規(guī)則問題,人工智能技術(shù)的應(yīng)用正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。系統(tǒng)的研發(fā)設(shè)計(jì)必須要與社會(huì)倫理匹配對(duì)接,機(jī)器規(guī)范和人類規(guī)范必須兼容,從而導(dǎo)致社會(huì)損害。再如機(jī)器人的“人格”和權(quán)力問題。目前在司法、醫(yī)療、指揮等領(lǐng)域正在發(fā)揮作用,不遠(yuǎn)的將來,人工智能在審判分析、疾病診斷上將替代人類。但是,在給機(jī)器授予決策權(quán)后,人們不僅要考慮人工智能的安全風(fēng)險(xiǎn),而且還要面臨一個(gè)新的倫理問題,即機(jī)器獨(dú)立行使專業(yè)決策的資格。有倫理學(xué)家認(rèn)為,未來機(jī)器人不僅有感知、認(rèn)知和決策能力,人工智能在不同環(huán)境中學(xué)習(xí)和演化,還會(huì)形成不同的個(gè)性。所以機(jī)器人使用者需要承擔(dān)類似監(jiān)護(hù)人一樣的道德責(zé)任甚至法律責(zé)任,以免對(duì)社會(huì)文明產(chǎn)生不良影響。⑤

第四類問題是人工智能可能引發(fā)的隱私問題。大數(shù)據(jù)驅(qū)動(dòng)模式主導(dǎo)了近年來人工智能的發(fā)展,隱私問題是數(shù)據(jù)資源開發(fā)利用中的主要威脅之一,人工智能應(yīng)用中必然存在隱私侵犯風(fēng)險(xiǎn)。比如數(shù)據(jù)采集中的隱私侵犯。隨著各類數(shù)據(jù)采集設(shè)施的廣泛使用,智能系統(tǒng)掌握了個(gè)人的大量信息,如果出于商業(yè)目的非法使用某些私人信息,就會(huì)造成隱私侵犯。再如云計(jì)算中的隱私風(fēng)險(xiǎn)。因?yàn)樵朴?jì)算技術(shù)使用便捷、成本低廉,許多用戶開始將數(shù)據(jù)存儲(chǔ)至云端。將隱私信息存儲(chǔ)至云端后,這些信息就容易遭到各種威脅和攻擊。目前在許多人工智能應(yīng)用中,云計(jì)算已經(jīng)被配置為主要架構(gòu),因此云端隱私保護(hù)是需要考慮的問題。還有知識(shí)抽取中的隱私問題。由數(shù)據(jù)到知識(shí)的抽取是人工智能的重要能力,知識(shí)抽取工具正在變得越來越強(qiáng)大,無數(shù)個(gè)看似不相關(guān)的數(shù)據(jù)片段可能被整合在一起,識(shí)別出個(gè)人行為特征甚至性格特征。但是,這些個(gè)性化定制過程又伴隨著對(duì)個(gè)人隱私的發(fā)現(xiàn)和曝光,如何規(guī)范隱私保護(hù)是需要與技術(shù)應(yīng)用同步考慮的一個(gè)問題。⑥

上一頁 1 2345678下一頁
[責(zé)任編輯:樊保玲]
標(biāo)簽: 人工智能   問題