人工智能技術(shù)具有正、反兩方面的作用,在造福于人類的同時(shí),也存在各種風(fēng)險(xiǎn)。理論上可能存在以下四種風(fēng)險(xiǎn)。
技術(shù)失控。技術(shù)失控指的是技術(shù)的發(fā)展超越了人類的控制能力,甚至人類被技術(shù)控制,這是很多人最為擔(dān)憂的風(fēng)險(xiǎn)?,F(xiàn)有人工智能技術(shù)僅在滿足強(qiáng)封閉性準(zhǔn)則的條件下,才可發(fā)揮其強(qiáng)大功能;在非封閉的場(chǎng)景中,現(xiàn)有人工智能技術(shù)的能力遠(yuǎn)遠(yuǎn)不如人類,而現(xiàn)實(shí)世界的大部分場(chǎng)景是非封閉的。所以,目前不存在技術(shù)失控風(fēng)險(xiǎn)。
技術(shù)誤用。與信息技術(shù)相關(guān)的技術(shù)誤用包括數(shù)據(jù)隱私問題、安全性問題和公平性問題等,人工智能技術(shù)的應(yīng)用可以放大這些問題的嚴(yán)重程度,也可能產(chǎn)生新的技術(shù)誤用類型。在現(xiàn)有條件下,人工智能技術(shù)本身是中性的,是否出現(xiàn)誤用完全取決于技術(shù)的使用。因此,對(duì)人工智能技術(shù)誤用的重視和風(fēng)險(xiǎn)防范應(yīng)提上議事日程。
應(yīng)用風(fēng)險(xiǎn)。應(yīng)用風(fēng)險(xiǎn)指的是技術(shù)應(yīng)用導(dǎo)致負(fù)面社會(huì)后果的可能性。目前人們最擔(dān)心的是人工智能在某些行業(yè)中的普遍應(yīng)用導(dǎo)致工作崗位的大量減少。應(yīng)用風(fēng)險(xiǎn)是由技術(shù)的應(yīng)用引起的,因此關(guān)鍵在于對(duì)應(yīng)用的掌控。根據(jù)強(qiáng)封閉性準(zhǔn)則,人工智能技術(shù)在實(shí)體經(jīng)濟(jì)中的應(yīng)用往往需要借助于場(chǎng)景改造,而場(chǎng)景改造完全處于人類的控制之下,做多做少取決于相關(guān)的產(chǎn)業(yè)決策。
管理失誤。人工智能是一項(xiàng)新技術(shù),它的應(yīng)用是一項(xiàng)新事物,社會(huì)缺乏管理經(jīng)驗(yàn),容易陷入“一管就死,一放就亂”的局面。為此,更需要深入理解人工智能現(xiàn)有成果的技術(shù)本質(zhì)和技術(shù)條件,確保監(jiān)管措施的針對(duì)性、有效性。
目前對(duì)人工智能存在三種認(rèn)識(shí)誤區(qū):一是人工智能已經(jīng)無(wú)所不能,因此現(xiàn)有人工智能技術(shù)可以無(wú)條件地應(yīng)用。根據(jù)強(qiáng)封閉性準(zhǔn)則,現(xiàn)有人工智能技術(shù)遠(yuǎn)未達(dá)到無(wú)所不能的程度,應(yīng)用是有條件的。因此,在產(chǎn)業(yè)應(yīng)用中亟須加強(qiáng)對(duì)強(qiáng)封閉性準(zhǔn)則的認(rèn)識(shí),加強(qiáng)場(chǎng)景裁剪和場(chǎng)景改造,避免違反強(qiáng)封閉性準(zhǔn)則的盲目應(yīng)用,而這種盲目目前在國(guó)內(nèi)外都十分普遍,不僅浪費(fèi)資源,更嚴(yán)重的是干擾了有希望成功的應(yīng)用。
二是現(xiàn)有人工智能技術(shù)不能大規(guī)模實(shí)際應(yīng)用,因?yàn)楝F(xiàn)有人工智能技術(shù)依賴于人工標(biāo)注,并不智能?,F(xiàn)有人工智能技術(shù)并不局限于深度學(xué)習(xí),而暴力法和訓(xùn)練法的結(jié)合可以避免人工標(biāo)注,而且符合強(qiáng)封閉性準(zhǔn)則的應(yīng)用場(chǎng)景可以有效地實(shí)施數(shù)據(jù)采集和人工標(biāo)注。目前一些應(yīng)用不成功的原因在于違反了強(qiáng)封閉性準(zhǔn)則,而不是因?yàn)楝F(xiàn)有人工智能技術(shù)不能應(yīng)用。這個(gè)誤區(qū)往往發(fā)生在對(duì)人工智能技術(shù)有一定了解而認(rèn)識(shí)不到位的情況下。與第一種誤區(qū)一樣,這種誤解會(huì)嚴(yán)重影響我國(guó)人工智能產(chǎn)業(yè)應(yīng)用的進(jìn)度。
三是在未來(lái)20年—30年內(nèi),人工智能技術(shù)發(fā)展將超越某個(gè)臨界點(diǎn),之后人工智能將不受人類控制自由發(fā)展。根據(jù)強(qiáng)封閉性準(zhǔn)則和全球人工智能研究現(xiàn)狀,這種“奇點(diǎn)說(shuō)”在技術(shù)范圍內(nèi)沒有任何科學(xué)依據(jù)。封閉性準(zhǔn)則包含的一些條件,如模型的語(yǔ)義完全性、代表性數(shù)據(jù)集的有限確定性,通常需要借助于強(qiáng)封閉性準(zhǔn)則要求的人工措施的輔助才可以滿足。假想未來(lái)有可能突破這些限制,與人工智能目前已具備突破這些限制的能力,完全是兩回事。即使將來(lái)突破了某種限制,還會(huì)有新的限制加以約束。這一類說(shuō)法無(wú)形中假定,可以存在脫離具體條件的人工智能技術(shù)。這種技術(shù)是否可能存在,目前并沒有任何科學(xué)證據(jù)的支持,有待于未來(lái)的觀察和研判。
以上三種誤區(qū)是我國(guó)人工智能發(fā)展的主要思想障礙。封閉性和強(qiáng)封閉性準(zhǔn)則立足于現(xiàn)有人工智能技術(shù)本質(zhì),為消除這些誤區(qū)提供了依據(jù),也為觀察、思考和研究人工智能發(fā)展的其他問題,避免重復(fù)以往人為放大“周期性起伏”的干擾,提供了一種新的視角。
(作者為中國(guó)科學(xué)技術(shù)大學(xué)教授)