青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁 | 網(wǎng)站地圖

大國(guó)新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

“強(qiáng)人工智能”將如何改變世界

——人工智能的技術(shù)飛躍與應(yīng)用倫理前瞻

【摘要】人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時(shí),也讓不少人焦慮乃至恐懼。這是因?yàn)椋?ldquo;學(xué)習(xí)”能力原被認(rèn)為是人類特有的能力,機(jī)器難以勝任。如今突破了這條界線,機(jī)器與人之間的界限似乎就被抹掉了。關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價(jià)值植入的技術(shù)限度。實(shí)際上,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會(huì)挑戰(zhàn)我們過往的既有經(jīng)驗(yàn),卻不是顛覆性的“消滅”。無論人工智能如何模仿人腦的“神經(jīng)網(wǎng)絡(luò)”,表現(xiàn)如何像人,只要人類心智現(xiàn)象的最終解釋沒有取得突破性進(jìn)展,關(guān)于人工智能是否逼近人類智能的設(shè)問就缺少必要的前提。

【關(guān)鍵詞】弱人工智能  強(qiáng)人工智能  量子力學(xué)  物理主義  倫理困境  價(jià)值理性

【中圖分類號(hào)】 B82-057                【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2016.07.003

AlphaGo的“勝利”與人工智能的演進(jìn)

2016年,是人工智能(Artificial Intelligence,英文縮寫為AI)議題高度亢奮的一年。谷歌DeepMind團(tuán)隊(duì)開發(fā)的AlphaGo程序以4比1的成績(jī)“戰(zhàn)勝”韓國(guó)棋手、世界冠軍李世石,使這種亢奮達(dá)到了頂點(diǎn)。

AlphaGo程序利用“神經(jīng)網(wǎng)絡(luò)”來模仿專業(yè)棋手,并通過與其他同類程序比賽、加上程序自身的“對(duì)壘”進(jìn)行“自我學(xué)習(xí)”,從而進(jìn)一步提高其性能。AlphaGo對(duì)陣其他圍棋程序的勝率達(dá)到了99%,并在過去的一場(chǎng)巡回賽中以5比0戰(zhàn)勝了衛(wèi)冕歐洲冠軍樊麾。此番AlphaGo與李世石的對(duì)壘,五連勝還是負(fù)一贏四,并不妨礙我們對(duì)人工智能的發(fā)展作出進(jìn)一步的評(píng)估。恰如本次賽前發(fā)布會(huì)上谷歌董事長(zhǎng)施密特所表示的,輸贏都是人類的勝利。因?yàn)檎侨祟惖呐Σ抛屓斯ぶ悄苡辛私裉斓耐黄?,人工智能在圍棋?ldquo;戰(zhàn)勝”人類智能只是時(shí)間問題。

AlphaGo贏得圍棋比賽,使得知識(shí)界科技界對(duì)待人工智能的兩種典型態(tài)度再度引起關(guān)注:一種是霍金、比爾·蓋茨式的“警惕人工智能”,一種是雷·庫茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國(guó)理論物理學(xué)家史蒂芬·霍金警告說,人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾·蓋茨在Reddit的“AskMe Anything”論壇上表示,人類應(yīng)該敬畏人工智能的崛起。蓋茨認(rèn)為,人工智能將最終構(gòu)成一個(gè)現(xiàn)實(shí)性的威脅,雖然在此之前,它會(huì)使我們的生活更輕松。庫茲韋爾是“奇點(diǎn)論”和“加速回報(bào)定律”主張的代表人物,他曾經(jīng)表示:“要成為一位發(fā)明家或企業(yè)家,你必須得是個(gè)樂觀派。對(duì)未來所存在的風(fēng)險(xiǎn),我并非是渾然不覺,我只是對(duì)人類安然渡過奇點(diǎn)而無需以摧毀文明為代價(jià)持樂觀態(tài)度而已。”①

自被1956年的達(dá)特茅斯學(xué)院會(huì)議正式確立為一個(gè)學(xué)科以來,“人工智能”的發(fā)展經(jīng)歷了多次起伏。到了1970年代,人工智能的發(fā)展開始遭遇更多的批評(píng),隨之而來的還有資金支持的銳減。研究者的過于樂觀使得一些項(xiàng)目的承諾無法兌現(xiàn),比較知名的諸如閔斯基(Marvin Minsky)對(duì)傳感器技術(shù)的激烈批評(píng),使得聯(lián)結(jié)主義(即神經(jīng)網(wǎng)絡(luò))近乎銷聲匿跡了10年。1973年,美國(guó)和英國(guó)政府更是嚴(yán)格控制對(duì)人工智能的投入,那些“沒有明確目標(biāo)的人工智能研究項(xiàng)目”被停止了撥款。

1980~1987年,人工智能重新迎來一個(gè)發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機(jī)器人。受日本政府投資野心的刺激,發(fā)達(dá)國(guó)家進(jìn)入了“人工智能”研究的競(jìng)賽狀態(tài),美國(guó)政府和企業(yè)再次在AI領(lǐng)域投入數(shù)十億研究經(jīng)費(fèi),但由于研究人員低估了人工智能研發(fā)的難度,進(jìn)展有限,這些投資在80年代末再次受到質(zhì)疑。1987~1993年,人工智能的發(fā)展又一次陷入低谷,美國(guó)研究機(jī)構(gòu)DARPA(國(guó)防高等研究計(jì)劃署)的主任甚至認(rèn)為人工智能不再是研究的重要方向??▋?nèi)基梅隆大學(xué)移動(dòng)機(jī)器人實(shí)驗(yàn)室主任莫拉維克(Hans Moravec)將這種挫敗歸咎于他的同行們不切實(shí)際的預(yù)言和承諾。②

從1993年到今天,人工智能進(jìn)入了加速發(fā)展軌道。2012年6月23日,在位于米爾頓凱恩斯的布萊切利公園舉行了紀(jì)念圖靈百年誕辰的圖靈測(cè)試。一個(gè)被設(shè)計(jì)為擁有“高度可信度”的個(gè)性化機(jī)器人“古斯特曼”在競(jìng)賽中獲勝。這次競(jìng)賽主要有5臺(tái)機(jī)器人、25名人類成員和30名評(píng)委參與,是有史以來規(guī)模最大的一次競(jìng)賽。經(jīng)過一系列的5分鐘對(duì)話后,29%的評(píng)委相信古斯特曼擁有類人的人工智能。③這次測(cè)試,使得人工智能樂觀派相信,人工智能的飛躍式發(fā)展即將來臨。早在2005年,雷·庫茲韋爾在他的《奇點(diǎn)臨近》一書中,預(yù)言機(jī)器的智能將在2045年超過人類的智能。④

在學(xué)術(shù)界,“奇點(diǎn)理論”遭到了強(qiáng)烈而持久的質(zhì)疑。牛津大學(xué)哲學(xué)教授、人類未來研究院創(chuàng)始人和主任(人類未來研究院是一個(gè)多學(xué)科研究院,旨在幫助一些非常優(yōu)秀的數(shù)學(xué)家、哲學(xué)家和科學(xué)家對(duì)人類大問題和全球大事務(wù)進(jìn)行仔細(xì)的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超級(jí)智能:途徑、危險(xiǎn)與戰(zhàn)略》一書中認(rèn)為:“‘奇點(diǎn)’這一術(shù)語在很多不同領(lǐng)域被混亂地使用,并催生出一種不合理的技術(shù)烏托邦氛圍,就好像我們會(huì)就此迎來太平盛世了??紤]到‘奇點(diǎn)’這個(gè)詞所指的大部分涵義與本文的論述不甚相關(guān),我們可以去掉這個(gè)詞并代替以更精確的術(shù)語。”⑤波斯特姆使用“超級(jí)智能”(superintelligence)一詞來描述機(jī)器“智能爆發(fā)”之后的智能狀態(tài)。但是,波斯特姆的這個(gè)概念沒有把工具性智能與人類的意識(shí)和自我意識(shí)等第一人稱世界的內(nèi)容區(qū)分開來,根據(jù)我們下面的討論可以看出,這種混淆是誤入歧途的,但這并不妨礙他的警示的有效性。

弱人工智能復(fù)雜化:人類的“超級(jí)秘書”

AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最后的壁壘即將坍塌,“人類應(yīng)放下自己的驕傲”?⑥其實(shí),人類以這種工具性智能為傲,本來就是概念錯(cuò)置。況且,以下圍棋的能力來代表人類智能,也站不住腳。說到底,這是在單一的抽象博弈智能方面,體制化的學(xué)術(shù)集體戰(zhàn)勝了天賦極高的自然個(gè)體。這種博弈,無論哪一方贏,都是人類在贏。

圍棋作為一種古老的棋術(shù),其規(guī)則簡(jiǎn)單明晰,卻因組合可能性的數(shù)據(jù)龐大而令一些人感到癡迷。圍棋棋盤上每一點(diǎn),都有黑、白、空三種情況,棋盤上共有19*19=361個(gè)點(diǎn),所以可能產(chǎn)生的合法棋局?jǐn)?shù)為3的361次方種??赡苄缘碾y以窮盡,催生了圍棋朗朗上口的口訣式經(jīng)驗(yàn)總結(jié),其實(shí)就是快速對(duì)應(yīng)勝負(fù)的概率計(jì)算,這與AlphaGo通過“深度學(xué)習(xí)”而減少計(jì)算量的邏輯是一致的。不同的是,計(jì)算機(jī)可以記住趨于無窮多的作為程序的口訣和案例,而人窮其一生,也只能記住有限的經(jīng)驗(yàn),很多時(shí)候就只能靠現(xiàn)場(chǎng)推算,甚至靠直覺領(lǐng)悟了。一些對(duì)圍棋技藝癡迷且不愿意相信電腦能贏的人,陷入的恰恰是將圍棋神秘化的有限經(jīng)驗(yàn)當(dāng)中。更有意思的是,有些棋手按照平時(shí)訓(xùn)練的圍棋技藝來評(píng)價(jià)人機(jī)大戰(zhàn)時(shí),會(huì)認(rèn)為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實(shí),在以最終取勝為目的的電腦程序里,只要達(dá)成程序設(shè)定目標(biāo),就不能有所謂“臭棋”或“失誤”之說。

那么,會(huì)“深度學(xué)習(xí)”、用“神經(jīng)網(wǎng)絡(luò)”打造的AlphaGo究竟算不算“強(qiáng)人工智能”或波斯特姆所言的“超級(jí)智能”呢?

波斯特姆在美國(guó)《連線》雜志2016年1月刊發(fā)表了看法。在他看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術(shù)一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術(shù),比如深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。谷歌擊敗圍棋大師不過是一項(xiàng)重大進(jìn)程中的一部分。這一進(jìn)程始于很久以前,也將延續(xù)至未來幾年。波斯特姆說,“過去和現(xiàn)在,最先進(jìn)的人工智能都取得了很多進(jìn)展”,“(谷歌)的基礎(chǔ)技術(shù)只是過去幾年中的技術(shù)研發(fā)的技術(shù)正常延續(xù)”。⑦

看起來,雖然波斯特姆在總體上有關(guān)智能本質(zhì)的理解是不成立的,AlphaGo的表現(xiàn)也沒有出乎他的意料。在《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國(guó)際象棋比賽曾被認(rèn)為是人類智能活動(dòng)的集中體現(xiàn)。20世紀(jì)50年代后期的一些專家認(rèn)為:‘如果能造出成功的下棋機(jī)器,那么就一定能夠找到人類智能的本質(zhì)所在。’但現(xiàn)在,我們卻不這么認(rèn)為了。約翰·麥肯錫曾不無惋惜地悲嘆:‘這種機(jī)器被造出來之后,人們就不稱其為人工智能了。’”⑧也就是說,能下棋能贏人類的機(jī)器,終究還是機(jī)器,與人類的心智本質(zhì)無甚關(guān)聯(lián)。感到不可思議或驚呼“聰明的人類輸給了機(jī)器”的人,不是神化了下棋技藝的智力本質(zhì),就是給下棋程序橫加賦予了“人性”特質(zhì)。

初看起來,波斯特姆所謂的“超級(jí)智能”,應(yīng)該是能夠全面取代人類智能的一種“強(qiáng)人工智能”,區(qū)別于當(dāng)前已經(jīng)廣泛應(yīng)用中的“弱人工智能”(包括自動(dòng)駕駛、下棋技能、機(jī)器視覺、指紋識(shí)別、人臉識(shí)別、視網(wǎng)膜識(shí)別、虹膜識(shí)別、掌紋識(shí)別、專家系統(tǒng)、自動(dòng)規(guī)劃,等等)。但他并沒有深入探討人類的智能現(xiàn)象的本質(zhì)究竟是什么,對(duì)經(jīng)典的“他心問題”也無涉及,這又讓人覺得他說的“超級(jí)智能”還是屬于工具性智能的“弱人工智能”的范疇。

就這一點(diǎn),他本人也有所認(rèn)識(shí),他說:“用超級(jí)智能來指代在許多普遍的認(rèn)知領(lǐng)域中,表現(xiàn)遠(yuǎn)遠(yuǎn)超越目前最聰明的人類頭腦的智能。這個(gè)定義仍然十分模糊。按照這個(gè)定義,很多系統(tǒng)具有迥然不同的性能特質(zhì),都可以被視為超級(jí)智能。”⑨為了進(jìn)一步解釋他的構(gòu)思,他試圖通過區(qū)分智能層面的超級(jí)能力,將超級(jí)智能的這種簡(jiǎn)單定義分解。于是,他將超級(jí)智能分為三種形式:高速超級(jí)智能、集體超級(jí)智能和素質(zhì)超級(jí)智能。由于未能把握人類意識(shí)現(xiàn)象的本質(zhì)以及指出解釋意識(shí)現(xiàn)象的方向,不管波斯特姆在展望“超級(jí)智能”時(shí)如何分類,都無法提供接近“機(jī)器人是人嗎?人是機(jī)器人嗎?”這個(gè)根本命題的方向乃至答案。

無論是谷歌的無人駕駛技術(shù),還是如今的AlphaGo下棋程序,或者更早前的“微軟小冰”,這些智能機(jī)器的發(fā)明,與人類從科技進(jìn)步中期待得到的工具理性之間,并無根本的內(nèi)在沖突,復(fù)雜程度日益提升、智能的日趨強(qiáng)大,與人們驚呼的“人類將要被機(jī)器消滅”的后果之間,并沒有什么必然的關(guān)聯(lián)。

可以說,迄今為止機(jī)器下棋技術(shù)的每一次重要進(jìn)展,都可能是“弱人工智能”領(lǐng)域的路標(biāo),但其中涉及的主要并不是人工智能技術(shù)內(nèi)部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預(yù)先設(shè)想為當(dāng)然標(biāo)桿后,標(biāo)桿在某種光照中投下的張揚(yáng)扭曲的影子。要超出這個(gè),我們必須對(duì)人類意識(shí)的“整一性”難題和“他心問題”有了可操作的解釋以后才有可能,就目前情況來看,玄機(jī)在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神經(jīng)網(wǎng)絡(luò)”里,而在我們自己心智的幻影中。就“弱人工智能”范疇而言,智能再?gòu)?qiáng)大的機(jī)器,再像人的機(jī)器,也就是人類的一個(gè)不鬧情緒的“超級(jí)秘書”而已。

價(jià)值失落:人類的身份認(rèn)同危機(jī)與技術(shù)焦慮癥

2014年,史蒂芬·霍金與麻省理工學(xué)院物理學(xué)家馬克思·泰格馬克(Max Tegmark)、諾貝爾獎(jiǎng)得主弗朗克·韋爾切克(Frank Wilczek)、計(jì)算機(jī)科學(xué)家斯圖亞特·羅素(Stuart Ressell)合寫了一篇署名評(píng)論文章《在超級(jí)智能機(jī)器上超越自滿》,該文引起了廣泛關(guān)注?;艚鹪谖恼轮斜磉_(dá)了對(duì)人工智能的憂慮:“可以想象,人工智能會(huì)以其‘聰明’在金融市場(chǎng)勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至理解不了的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長(zhǎng)期影響則取決于人工智能到底能否受到任何控制。”⑩

關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價(jià)值植入的技術(shù)限度。

人類的價(jià)值系統(tǒng),粗泛地區(qū)分,可以分為外在價(jià)值和內(nèi)在價(jià)值,即所謂“有用”與“無用”之辨。當(dāng)我們說什么東西有用時(shí),是就這東西對(duì)于它之外的某個(gè)目標(biāo)、目的或者是功能而言的,比如錢可以拿來購(gòu)買面包充饑,這叫工具價(jià)值。由于它把其他東西當(dāng)作自己服務(wù)的對(duì)象,所以它沒有內(nèi)在價(jià)值,只有外在價(jià)值。外在價(jià)值即是那些工具性的價(jià)值,最終服務(wù)于人類的內(nèi)在價(jià)值訴求。

那么,什么是內(nèi)在價(jià)值呢?哲學(xué)家們或許會(huì)就某些含混地帶進(jìn)行爭(zhēng)論,但無論如何,很少有人會(huì)把一些基本的要素排除出去,比如自由、快樂、尊嚴(yán)、情愛、創(chuàng)造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等于失去了值得欲求的內(nèi)容。當(dāng)然,要有自由、尊嚴(yán),需要一個(gè)最低版本的生存條件。這個(gè)條件,人和任何其他動(dòng)物沒有什么不同,不是人之為人的本質(zhì)所在。如果我們談?wù)撊祟惿畹膬?nèi)在價(jià)值及其意義系統(tǒng),則必然集中在人所特有的東西上??档碌牡赖抡軐W(xué)已向我們表明,追求自由、尊嚴(yán)是所有理性存在主體的內(nèi)在規(guī)定,鮮有其他哲學(xué)家會(huì)否認(rèn)這一點(diǎn)。

在談?wù)撊斯ぶ悄軐?duì)人的侵蝕和威脅時(shí),有一部分研究人員會(huì)使用喪失“人類關(guān)切”(human-centric)一詞來描述這種內(nèi)在價(jià)值的虧損。比如法格拉(Daniel Faggella)采訪了12位活躍在AI領(lǐng)域的權(quán)威專家和研究人員。其中,科爾奈(Kornai)博士和阿肯色大學(xué)的博爾林特(Daniel Berleant)博士都預(yù)見到了自動(dòng)化金融算法被它們的所有者們用來作為賺錢工具所帶來的潛在災(zāi)難性問題,他們說,這其中沒有任何“人類關(guān)切”的目標(biāo)。認(rèn)知科學(xué)家巴赫(Joscha Bach)則說:“近期的人工智能引起的危機(jī)最終可能成為現(xiàn)在社會(huì)中已經(jīng)存在的一樣的危機(jī)。如果我們不能走出基于工薪的經(jīng)濟(jì)模式的話,人工智能的自動(dòng)化會(huì)提高生產(chǎn)力,卻不會(huì)改善我們的生存條件。”?這種憂慮不無道理,不過主要是基于財(cái)富分配的急遽變化而引起的社會(huì)階層流動(dòng)而言的,實(shí)際上,并不是技術(shù)進(jìn)步和人工智能自身的問題。

如前所述,人類的內(nèi)在價(jià)值并不在于謀生存的基本勞作,無論是體力勞動(dòng)還是腦力勞動(dòng),都是為了解決問題來完成給自己設(shè)定的任務(wù),這種設(shè)定源于我們的自我意識(shí)和意義系統(tǒng)。有了這種設(shè)定,才能知道什么是該干的“活”,什么是服務(wù)于我們的訴求的有效勞動(dòng)。像下棋一類的智力活動(dòng),在人類這里剛好不是用來“干活”完成功利目標(biāo)的技能,而是生活內(nèi)容中的一部分高級(jí)游戲,這很有工具價(jià)值之外的意義。但是,這場(chǎng)人機(jī)大賽,引起嘩然的并不是這個(gè),而是人們感覺到的一種基于工具效能理解的自我認(rèn)同危機(jī)。這種自我認(rèn)同,其實(shí)是傭工思維,是一種價(jià)值上的自我貶損。

在單一的抽象博弈智能方面,體制化、學(xué)術(shù)化的集體戰(zhàn)勝了天賦極高的自然個(gè)體。這令依賴這種稟賦的自然個(gè)體感到焦慮,正如有人馬上反應(yīng)過來:“以后還帶不帶孩子學(xué)圍棋了?大街小巷的圍棋興趣班還有生意么?”圍棋冠軍們更是感受到一種職業(yè)性的惶恐:究竟我們此前對(duì)圍棋的認(rèn)知還有多少盲區(qū)?

其實(shí),機(jī)器沒有獨(dú)立的意志,所謂“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡?,與AI“自己”無關(guān),因?yàn)锳lphaGo根本就沒有所謂的“自己”。沒有獨(dú)立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應(yīng),比如無名的焦慮,不可克制的興奮,更具體點(diǎn),漢語世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的。

一些圍棋資深人士感到困惑,他們認(rèn)為AlphaGo給出選點(diǎn)的思維方式與人類很不同,還有一個(gè)流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世石,而在于它能贏卻故意輸?shù)?rdquo;。這本來是個(gè)玩笑,但這個(gè)玩笑引出的問題確實(shí)切中要害的。什么叫“故意”輸?shù)??AlphaGo并沒有自我意識(shí),沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智能”與“強(qiáng)人工智能”的原則區(qū)別了。

波斯特姆似乎會(huì)把機(jī)器的所謂“故意”描述為“超級(jí)智能的意愿”,在他看來,智能大爆發(fā)將會(huì)導(dǎo)向一個(gè)叫做“背叛轉(zhuǎn)折”的臨界點(diǎn)。關(guān)于背叛轉(zhuǎn)折,他這樣定義:“當(dāng)人工智能本來愚蠢時(shí),變聰明是更安全的;但是當(dāng)它本來就聰明時(shí),變得更聰明則是更危險(xiǎn)的。就像有一個(gè)軸心點(diǎn),到這個(gè)點(diǎn)上,原來很有效的策略會(huì)突然產(chǎn)生相反的結(jié)果。我們把這個(gè)現(xiàn)象叫作背叛轉(zhuǎn)折。”?

波斯特姆假想的人工智能厄運(yùn)圍繞的仍是人的動(dòng)機(jī),而不是機(jī)器真正有了意圖。諸如他所列舉的,“機(jī)器”為了使得開發(fā)人工智能的贊助者高興,而“故意”表現(xiàn)得不那么“聰明”來蒙蔽人類,諸如在贊助者的大腦中植入負(fù)責(zé)快樂的電極,以使得贊助者被蒙蔽而不知覺,反而覺得很快樂。這里面涉及的,仍然是人與人之間的欺騙與控制。

只要沒有出離人與人之間的關(guān)系,人工智能呈現(xiàn)的問題與危機(jī),就沒有超乎人類已經(jīng)面對(duì)過的控制與反控制的議題。也就是說,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會(huì)挑戰(zhàn)我們過往的既有經(jīng)驗(yàn),卻不是顛覆性的“消滅”;它會(huì)改變社會(huì)學(xué)階層分析的經(jīng)典框架,卻不會(huì)產(chǎn)生什么新型的劫難。

對(duì)人工智能的過度期待或深度憂慮,大多基于缺乏學(xué)理根據(jù)的科幻想象或人們對(duì)自身的身份認(rèn)同前景的恐慌。出版于1818年的《科學(xué)怪人》?就描述了“弗蘭肯斯坦”這個(gè)科學(xué)狂人,他以“科學(xué)”的方式使死尸復(fù)活,結(jié)果那個(gè)被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學(xué)作品展示人類的這種身份認(rèn)同焦慮,已經(jīng)源遠(yuǎn)流長(zhǎng),但今天的知識(shí)界科學(xué)界,如果還是止步于無的放矢的焦灼和恐懼,則無助于我們真正認(rèn)識(shí)人工智能與人類意識(shí)的本質(zhì)關(guān)系。

從人工智能目前的發(fā)展方向看,無論它再怎么“自動(dòng)學(xué)習(xí)”“自我改善”,都不會(huì)有“征服”的意志,不會(huì)有“利益”訴求和“權(quán)利”意識(shí)。當(dāng)前,無論從緊迫性上看,還是從終極可能性上看,“弱人工智能”問題都屬于常規(guī)性問題,并且是漸進(jìn)呈現(xiàn)的。如果說在可見的未來,技術(shù)發(fā)展領(lǐng)域有什么更值得擔(dān)心、警醒、緊迫的事情,那么,或許基于虛擬技術(shù)的“擴(kuò)展現(xiàn)實(shí)”的實(shí)現(xiàn)帶來的影響將更具顛覆性。?

上一頁 1 23下一頁
[責(zé)任編輯:鄭韶武]
標(biāo)簽: 人工智能   世界