青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 理論前沿 > 深度原創(chuàng) > 正文

人工智能是否應(yīng)具有法律主體地位

【摘要】人工智能技術(shù)發(fā)展如火如荼,也引發(fā)了相關(guān)法律問(wèn)題的激烈討論。面對(duì)人工智能帶來(lái)的新型權(quán)利分配和責(zé)任承擔(dān)問(wèn)題,有人提出應(yīng)賦予強(qiáng)人工智能,甚至是特定的弱人工智能以某種形式的法律主體地位來(lái)應(yīng)對(duì)。然而這一路徑看似便捷,卻忽視了人工智能無(wú)法充分承擔(dān)責(zé)任的情形,也未充分考慮人工智能發(fā)展與人類中心主義的社會(huì)規(guī)則產(chǎn)生的沖突。

【關(guān)鍵詞】人工智能 法律主體 人類中心主義 【中圖分類號(hào)】D90 【文獻(xiàn)標(biāo)識(shí)碼】A

人工智能已成為近幾年的熱門詞匯,發(fā)展勢(shì)頭迅猛,這也同時(shí)引發(fā)了人們對(duì)人工智能可能造成的法律風(fēng)險(xiǎn)的熱烈討論,其中一個(gè)非常重要的理論問(wèn)題就是人工智能是否應(yīng)被視為法律主體。法律主體是能夠締結(jié)法律關(guān)系的“人”,因各個(gè)國(guó)家法律制度的差異,大致包括自然人、法人、非法人團(tuán)體,甚至是一些非生命物體,如河流、公園、生態(tài)環(huán)境等。法律主體的確定對(duì)解決任何爭(zhēng)議都至關(guān)重要,因?yàn)橹挥邢却_定法律主體,才能接下來(lái)討論法律責(zé)任的分配問(wèn)題。對(duì)人工智能應(yīng)否被承認(rèn)為法律主體的討論也因此而起。

人工智能可以劃分為弱人工智能和強(qiáng)人工智能,法律主體地位問(wèn)題主要針對(duì)強(qiáng)人工智能

然而,并非所有人工智能都具備成為法律主體的特征。按照目前普遍接受的分類方式,人工智能分為弱人工智能和強(qiáng)人工智能。弱人工智能系統(tǒng)只能執(zhí)行為其設(shè)計(jì)好的任務(wù),如語(yǔ)言翻譯、導(dǎo)航等,除了其既定程序之外做不了別的事情,因此其能力范圍很窄。目前應(yīng)用的所有人工智能,包括最復(fù)雜的通過(guò)機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)來(lái)自主提升的人工智能,都屬于弱人工智能的范疇。強(qiáng)人工智能可以完全像人類一樣學(xué)習(xí)、認(rèn)知、理解并行動(dòng),能夠完成多個(gè)目標(biāo),甚至可以在不確定或者模糊的情況下獨(dú)立設(shè)定新目標(biāo)。事實(shí)上,強(qiáng)人工智能就是我們?cè)陔娪啊⑽膶W(xué)作品中所熟悉的機(jī)器人和人工智能的形象。但是,目前強(qiáng)人工智能還不存在,也有人對(duì)強(qiáng)人工智能究竟是否可能出現(xiàn)持懷疑態(tài)度。

因?yàn)槟壳皯?yīng)用的各類人工智能都屬于弱人工智能,也就是專注于且只能解決特定領(lǐng)域問(wèn)題的人工智能,例如我們所熟知的AlphaGo。這些人工智能因能力所限,還屬于工具的范疇,是法律上的客體,人們對(duì)此定位并無(wú)爭(zhēng)議,也不在我們這里的討論范圍之內(nèi)。人們爭(zhēng)議的焦點(diǎn)是強(qiáng)人工智能,即能勝任人類所有工作的人工智能。雖然目前技術(shù)上還無(wú)法實(shí)現(xiàn)強(qiáng)人工智能,但是很多科學(xué)家都很樂(lè)觀,認(rèn)為這一天很快會(huì)到來(lái),因此針對(duì)此類人工智能的法律主體地位問(wèn)題開展前瞻性的討論非常有必要。我們后面所提到的人工智能都是指強(qiáng)人工智能。

不少人提出人工智能應(yīng)成為法律主體,認(rèn)為人工智能可以自主決策、享受權(quán)利、承擔(dān)法律責(zé)任

目前,國(guó)內(nèi)外不少人認(rèn)為應(yīng)考慮賦予人工智能或者與法人主體類似或者具有一定限制的法律主體地位,主要基于以下幾點(diǎn)理由:一是人工智能可以自主決策,具備和人類一樣的“理性”和“自由意志”。持此觀點(diǎn)的人認(rèn)為,法律上主客體的根本區(qū)別在于是否具有“自由意志”,人工智能可以自主決策,表現(xiàn)出與人類似的行為,能力與人類已經(jīng)無(wú)異,符合法律主體的“自由意志”的要件,應(yīng)賦予其主體地位。況且,人工智能表現(xiàn)得與人如此類似,人類很容易與之共情,再將其視為工具或者為人類服務(wù)的電子奴隸,倫理上和感情上都難以接受,賦予其法律主體地位才更為恰當(dāng)。

二是人工智能可以享受權(quán)利。人工智能成為法律主體可以解決目前人工智能創(chuàng)造物的知識(shí)產(chǎn)權(quán)權(quán)利分配的難題。事實(shí)上,人工智能創(chuàng)作出來(lái)的歌曲、詩(shī)歌等已經(jīng)達(dá)到了讓普通人類受眾難以將之與其他人類作品區(qū)分開來(lái)的水平,不少人認(rèn)為應(yīng)將這樣的作品視為知識(shí)產(chǎn)權(quán)意義上的“作品”。但是這種做法卻難以在由誰(shuí)來(lái)?yè)碛羞@個(gè)作品的問(wèn)題上達(dá)成共識(shí)。目前認(rèn)為由算法設(shè)計(jì)者或者人工智能所有者擁有作品,或者甚至使此類作品進(jìn)入公共流通領(lǐng)域的解決方案都難以自圓其說(shuō),若承認(rèn)人工智能為法律主體,則此類問(wèn)題立即迎刃而解。

三是人工智能可以承擔(dān)法律責(zé)任,從而解決人工智能致害的責(zé)任分配問(wèn)題。在人工智能可以享受權(quán)利的情況下,其既可以擁有知識(shí)產(chǎn)權(quán)權(quán)利,也可以擁有其他財(cái)產(chǎn)權(quán)利以及獲得報(bào)酬等。因此,在對(duì)其他法律主體造成損害的情況下,人工智能可以用其所擁有的財(cái)產(chǎn)提供金錢上的救濟(jì)。從這個(gè)意義上來(lái)講,人工智能與法人非常類似:獨(dú)立決策、擁有財(cái)產(chǎn)并承擔(dān)法律責(zé)任。而且因?yàn)槿斯ぶ悄茏灾鳑Q策,其導(dǎo)致的損害如果讓設(shè)計(jì)者、生產(chǎn)者或者擁有者其中任何一方或者共同來(lái)承擔(dān)責(zé)任都有失公平,讓人工智能獨(dú)立承擔(dān)責(zé)任更為恰當(dāng)。

人工智能成為法律主體存在不少潛在風(fēng)險(xiǎn),不應(yīng)賦予人工智能法律主體地位

盡管人工智能成為法律主體可以解決上述諸多問(wèn)題,但是此種做法帶來(lái)的不利后果卻應(yīng)更加重視。首先,人工智能的自主決策能力是算法運(yùn)行的結(jié)果,是對(duì)人類行為的模擬,而非其自發(fā)產(chǎn)生的能力。實(shí)際上,人工智能是人造出來(lái)的產(chǎn)物,其生命產(chǎn)生機(jī)理以硅基為基礎(chǔ),與人類這樣的碳基生物完全不同。因此,盡管人工智能可以學(xué)習(xí)、思考、決策,卻不會(huì)與人類一樣感受痛苦,也不必面臨死亡。如果人工智能成為法律主體,因?yàn)槠淠芰σ呀?jīng)與人類無(wú)異,將來(lái)甚至有可能迅速過(guò)渡到超人工智能時(shí)代。屆時(shí)整個(gè)社會(huì)將不再以“人類為中心”。人工智能也許可以與人類和平共處,但其更有可能成為人類的強(qiáng)大競(jìng)爭(zhēng)對(duì)手,而且因其不會(huì)死亡,無(wú)法感知痛苦,允許人工智能成為和人類一樣的法律主體,人類很可能失去主體地位,淪為客體,甚至滅亡。

其次,權(quán)利對(duì)人工智能可能具有與人類不同的意義。人工智能作為法律主體,可以享有大部分其他法律主體享有的權(quán)利,如包括知識(shí)產(chǎn)權(quán)在內(nèi)的財(cái)產(chǎn)權(quán)利,締約權(quán)利,甚至言論自由權(quán)利等。但是人工智能作為人造物,其價(jià)值追求與人類并不一定相同,這些權(quán)利對(duì)其而言可能并不具備與對(duì)人類相同的價(jià)值。比如人工智能無(wú)需積累財(cái)富,提升生活水平,追求幸福等。人工智能也可能不像人類那樣有各種各樣的消費(fèi)需求。因此,人工智能在對(duì)其財(cái)產(chǎn)作出處分決定的時(shí)候可能并不會(huì)遵循人類社會(huì)的經(jīng)濟(jì)規(guī)律。如果為了規(guī)避這一問(wèn)題而給人工智能配備監(jiān)護(hù)人,則人工智能的“自主決策”能力就失去了意義,也為人類主體侵犯人工智能的財(cái)產(chǎn)權(quán)利留下了空間。

最后,人工智能承擔(dān)的法律責(zé)任有限。人工智能致人損害時(shí),僅能通過(guò)金錢賠償?shù)姆绞教峁┚葷?jì),在此種救濟(jì)方式不充分的情況下,通常適用于人類的懲罰方式如緩刑、監(jiān)禁、死刑等都不適用于人工智能,因?yàn)槿斯ぶ悄芗炔粫?huì)感知痛苦,也不會(huì)死亡,有些甚至沒(méi)有固定的實(shí)體,這些刑罰方式對(duì)人工智能沒(méi)有震懾作用。雖然人工智能可以比較充分地承擔(dān)民事責(zé)任,但是其作為與人類一樣擁有“自由意志”的法律主體,自主決策,并非像其他非人類主體一樣由人類代表其意志,卻可以不受懲罰地侵害其他法律主體的利益,或者更確切地說(shuō),懲罰方式對(duì)人工智能失去了效用,就會(huì)形成一塊法律責(zé)任的“真空地帶”。這就造成了一個(gè)局面,即能力上人工智能與人類相同,行為后果上,人工智能比人類承擔(dān)的責(zé)任要少。在這種情況下,承認(rèn)人工智能的法律主體地位,人類相當(dāng)于主動(dòng)把自己置于一個(gè)劣勢(shì)的不平等位置,可能導(dǎo)致人類受到人工智能的欺壓,甚至直接面臨生存危機(jī)。

從上面的討論中,我們可以看出:人工智能不應(yīng)被承認(rèn)為法律主體,因?yàn)槿祟悓榇顺袚?dān)不必要的風(fēng)險(xiǎn),甚至有可能威脅全體人類的生存。但是人工智能技術(shù)的發(fā)展不容忽視,未來(lái)必將更多地融入并影響人類的生活。應(yīng)對(duì)人工智能引發(fā)的法律問(wèn)題,一方面需要深入研究如何規(guī)范人工智能算法的倫理,使設(shè)計(jì)者、生產(chǎn)者和使用者都成為利益相關(guān)者,盡量增強(qiáng)算法的透明度和可解釋性,確保人工智能技術(shù)的發(fā)展與人類的價(jià)值和愿望相符合。另一方面,可能需要我們打破傳統(tǒng)的主客體二元范式,不再局限于傳統(tǒng)的人類以及非人類法人實(shí)體的討論,創(chuàng)造出新的可以適用于人工智能的規(guī)則。

(作者為對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)英語(yǔ)學(xué)院講師)

【注:本文系北京市社科基金青年項(xiàng)目“首都人工智能發(fā)展中的民事責(zé)任研究”(項(xiàng)目編號(hào):18FXC019)的研究成果】

【參考文獻(xiàn)】

①吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào)),2017年第5期。

②潘文軒:《人工智能技術(shù)發(fā)展對(duì)就業(yè)的多重影響及應(yīng)對(duì)措施》,《湖湘論壇》,2018年第4期。

責(zé)編/于洪清 美編/王夢(mèng)雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:李一丹]
標(biāo)簽: 人工智能