【摘要】當前,人工智能是否會挑戰(zhàn)人類社會秩序,進而帶來倫理問題,已經(jīng)成為各方關(guān)注的焦點。對于人工智能可能帶來的倫理問題,我們應通過完善相關(guān)立法、加強對相關(guān)技術(shù)與產(chǎn)品的管理力度,以及提升群眾的認知素養(yǎng)來進行規(guī)避。
【關(guān)鍵詞】人工智能 倫理問題 立法 【中圖分類號】B82-057 【文獻標識碼】A
2018年7月9日,在中國發(fā)展研究基金會和微軟公司聯(lián)合舉辦的《未來基石——人工智能的社會角色與倫理》報告發(fā)布會上,微軟公司總裁施博德指出,為設計出可信賴的人工智能,需要采取體現(xiàn)道德原則的解決方案,在給予計算機更強大力量的同時,也應當借助社會倫理對其進行合理引導。實際上,科技的發(fā)展是否會對人類的生存造成威脅,取決于人類是否能夠借助適應性的治理方式來應對。因此,面對人工智能可能帶來的倫理問題,我們需要做的便是合理規(guī)避。
人工智能可能會帶來何種倫理問題
人工智能帶來的究竟是福祉還是挑戰(zhàn),這一問題其實已經(jīng)在眾多文學、影視作品中進行過探討。比如,在《最強大腦》第四季首期節(jié)目中,植入百度大腦的小度機器人借助人臉識別技術(shù)與深度學習能力戰(zhàn)勝了世界記憶大師王峰;谷歌研發(fā)的人工智能“阿爾法狗”接連擊敗了各國圍棋高手,登上了人類智力游戲的頂峰。然而,當前部分以人機對戰(zhàn)為噱頭的綜藝節(jié)目,對人工智能的概念進行了曲解,人為地營造出了一種人機之間劍拔弩張的對立氛圍。事實上,這些對人工智能的曲解可能會導致真正問題的出現(xiàn)。
目前,人工智能可能帶來的倫理問題主要體現(xiàn)在兩個方面:一方面,一旦人工智能具備了超越機器的屬性,愈發(fā)類似于人的時候,人類是否應當給予其一定的“人權(quán)”;另一方面,人工智能正在逐步被人類賦予思想、學習和決策能力,在某些社會生產(chǎn)、生活領域逐漸替代人類,那么其在生產(chǎn)、生活中造成的過錯應當如何解決。針對這些情況,如何基于倫理視角引導人工智能服務于人類,已經(jīng)成為人工智能發(fā)展必然要面對的問題。
美國學者雷·庫茲韋爾在《如何創(chuàng)造思維》一書中提出,至本世紀三十年代前后,人類將有能力制造出極為智能的機器人,其能夠與人類產(chǎn)生一定程度的情感聯(lián)系,并具備自我意識。因此,當前人類應加快討論可能出現(xiàn)的倫理問題,即一旦高智能機器人誕生,出現(xiàn)了自我意識,人類是應當遏制其進一步成長,還是給予其“人權(quán)”。部分學者認為,賦予人工智能以“人權(quán)”是對人工智能的放縱,將對人類的生命安全造成威脅。持相反觀點者則認為,人類能夠開發(fā)出符合人類道德的人工智能產(chǎn)品,因此可以給予人工智能部分基礎的“人權(quán)”。
當人工智能取代人類站在某些工作崗位上時,其造成的過錯應當由何人來負責,從責任倫理視角來看,這是值得討論的問題。比如,當人工智能取代了部分醫(yī)療人員的崗位,誤診出現(xiàn)時,人們應當向誰追責,是醫(yī)療機器人的使用方,還是生產(chǎn)方,抑或是其本身?實際上,這并非是遠離人類當前生活的問題,在測試階段便已事故頻發(fā)的無人駕駛汽車已然將這一問題推到了人類面前。
人工智能為何會帶來倫理問題
隨著人工智能技術(shù)的快速發(fā)展,其可能引發(fā)的倫理問題也愈發(fā)突顯。那么,人工智能為何會帶來倫理問題呢?
首先,是因為相關(guān)法律保障的不足。目前,人工智能的智慧增長速度日益加快,已然走進了人類生產(chǎn)、生活的各個方面,使人類深切地感受到了其帶來的便利。但當前針對人工智能的相關(guān)立法工作還較為緩慢。雖然人工智能的智慧程度還不足以撼動人類的主導地位,但人工智能的立法工作已然迫在眉睫。
其次,是因為相關(guān)技術(shù)的不成熟。以“阿爾法狗”與李世石的對戰(zhàn)為例,雖然“阿爾法狗”在運算能力上遠勝于人類,通過計算每一步的最大勝率來進行下一步操作,但其卻在第四局比賽中敗給了運算能力明顯更弱的人類。由此可知,人工智能極有可能在實際運作過程中出現(xiàn)問題,需要進行技術(shù)完善與優(yōu)化。
最后,是因為人類片面的認知。Facebook研究團隊曾在試驗中令兩個人工智能機器人進行對話,但隨著對話的深入,人們發(fā)現(xiàn)人工智能竟然發(fā)明出了人類難以理解的特殊語言,這使得研究人員大驚失色,及時進行了干預,避免人工智能通過對話實現(xiàn)超出人類預期的升級。這一事件的發(fā)生,加劇了人工智能威脅論支持者的擔憂情緒,但作為反對者的扎克伯格則認為,人類花費大量資源研發(fā)人工智能,就是希望其在某些方面優(yōu)于人類,以便更好地服務于人類。因此,從目前來看,人工智能引發(fā)倫理問題的重要原因,就在于人類對人工智能的片面認知。
如何規(guī)避人工智能帶來的倫理問題
一是完善相關(guān)立法。法律是保障人類各項基本權(quán)益的重要武器。首先,要加強事前立法,借助法律手段規(guī)范人工智能的發(fā)展,確保其始終在人類可控范圍內(nèi),規(guī)避可能發(fā)生的倫理問題。其次,要加強事中立法,即針對人工智能可能帶來的倫理問題進行相關(guān)立法,明確責任劃分依據(jù)與標準,從而保證研發(fā)責任人、生產(chǎn)責任人、銷售責任人以及使用責任人都能夠較好地履行自身對人工智能產(chǎn)品的義務。最后,要加強事后立法,確保人工智能技術(shù)得到廣泛運用,并進入群眾生活??傊?,通過相關(guān)法律規(guī)范人工智能產(chǎn)品的開發(fā)與利用,能夠避免人工智能產(chǎn)品脫離控制,進而規(guī)避可能產(chǎn)生的倫理問題。
二是加強對相關(guān)技術(shù)與產(chǎn)品的管理力度。一旦技術(shù)發(fā)展成熟,人工智能便能夠正式參與人類生活。因此,我們要加強對人工智能技術(shù)與產(chǎn)品的管理,使其具備優(yōu)良的“倫理品質(zhì)”。首先,要加強對人工智能技術(shù)的管理,要對人工智能產(chǎn)品的應用程序進行審查,確保程序未被嵌入惡意性代碼。同時,要提高行業(yè)準入門檻,確保技術(shù)安全性。其次,要加強對人工智能產(chǎn)品的管理。每一個出廠的產(chǎn)品都應設置唯一的識別碼,同時,應在產(chǎn)品內(nèi)部放置監(jiān)控器,確保能夠?qū)Ξa(chǎn)品進行實時遠程控制,避免意外事件的發(fā)生。
三是提高群眾的認知素養(yǎng)。人工智能的發(fā)展方向很大程度上取決于人類自身。如果人類一味地拒絕接受該項技術(shù),人工智能勢必無法服務人類;如果人類不假思索地接受該項技術(shù),則勢必會為倫理問題的發(fā)生埋下隱患。因此,唯有提升群眾的認知素養(yǎng),才能使人工智能更好地為人類服務。首先,應提高科研人員的認知素養(yǎng),使其堅持對人類和社會負責,在人工智能研究方向、研究方法以及研究成果應用的過程中,始終保持謹慎的態(tài)度,既不因為應用效果較好而過分樂觀,也不因當前存在的不足而萬分驚恐,甚至全然抵制。其次,應提高普通群眾的認知素養(yǎng),引導群眾認識了解人工智能,理性發(fā)展技術(shù)。
(作者分別為中國勞動經(jīng)濟學會研究員;中國社會科學院研究生院博士研究生)
【參考文獻】
①張正清、黃曉偉:《作為“他者”而承擔道德責任的智能機器——一種人工智能成為道德能動者的可能性》,《道德與文明》,2018年第4期。
②潘宇翔:《大數(shù)據(jù)時代的信息倫理與人工智能倫理——第四屆全國賽博倫理學暨人工智能倫理學研討會綜述》,《倫理學研究》,2018年第2期。
③王勇:《人工智能時代的法律主體理論構(gòu)造——以智能機器人為切入點》,《理論導刊》,2018年第2期。
責編/陳楠 孫渴 美編/宋揚
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復本微信號獲得授權(quán),轉(zhuǎn)載時務必標明來源及作者,否則追究法律責任。