【摘要】人工智能在眾多行業(yè)領(lǐng)域掀起顛覆性革新的同時(shí),也在科技倫理方面引發(fā)了一些爭(zhēng)議與憂慮??萍紓惱碇卫砑纫盐湛萍及l(fā)展規(guī)律,又要防止科技發(fā)展過(guò)程中可能出現(xiàn)的違反道德倫理的行為。應(yīng)聚焦人工智能發(fā)展應(yīng)用面臨的數(shù)據(jù)隱私、算法偏見(jiàn)和責(zé)任規(guī)則等科技倫理挑戰(zhàn),在推動(dòng)人工智能創(chuàng)新發(fā)展的同時(shí),完善數(shù)據(jù)保護(hù)與隱私立法,優(yōu)化算法設(shè)計(jì)與公平性審查,提高人工智能決策的透明度與可解釋性,明確責(zé)任主體,提高監(jiān)管水平,防范和規(guī)制人工智能技術(shù)的濫用。
【關(guān)鍵詞】人工智能 科技倫理 科技法治 【中圖分類號(hào)】D923 【文獻(xiàn)標(biāo)識(shí)碼】A
“現(xiàn)代計(jì)算機(jī)、博弈論之父”約翰·馮·諾依曼(John von Neumann)曾說(shuō):“技術(shù)日新月異,人類生活方式正在快速轉(zhuǎn)變,這一切給人類歷史帶來(lái)了一系列不可思議的奇點(diǎn)。我們?cè)?jīng)熟悉的一切,都開(kāi)始變得陌生。”當(dāng)前,人工智能(AI)的快速發(fā)展正在眾多行業(yè)領(lǐng)域掀起一場(chǎng)顛覆性的行業(yè)革新。2024年政府工作報(bào)告提出,深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,開(kāi)展“人工智能+”行動(dòng),這是我國(guó)政府工作報(bào)告首次提出“人工智能+”。“人工智能+”的概念,旨在鼓勵(lì)各行各業(yè)重視人工智能技術(shù)的應(yīng)用和落地。
自1956年約翰·麥卡錫(John McCarthy)首次提出“人工智能”概念以來(lái),人工智能已經(jīng)取得了重大發(fā)展。對(duì)于AI帶來(lái)的發(fā)展機(jī)遇以及與之相伴的科技倫理治理挑戰(zhàn)應(yīng)給予辨證的理解。一方面,AI技術(shù)應(yīng)用展現(xiàn)出巨大的商業(yè)價(jià)值,在降低成本、提升效率、加快創(chuàng)新等方面發(fā)揮了重要作用,許多企業(yè)將其視為尋求突破、改變競(jìng)爭(zhēng)格局的新途徑。另一方面,隨著AI的發(fā)展和應(yīng)用,人們面臨的科技倫理挑戰(zhàn)也日益增多,譬如,AI“復(fù)活”已故明星視頻在互聯(lián)網(wǎng)各大視頻平臺(tái)爆火, AI“復(fù)活”親人業(yè)務(wù)的網(wǎng)絡(luò)熱度急速飆升。從動(dòng)態(tài)圖片到“可以對(duì)話的視頻”,再到能提供情感交互的虛擬體驗(yàn),這些圍繞AI技術(shù)新應(yīng)用的社會(huì)現(xiàn)象也引發(fā)了一些倫理憂慮。數(shù)字人作為AI技術(shù)率先落地的重要使用場(chǎng)景,仍存在法律與倫理上的爭(zhēng)議,亟需重新思考科學(xué)技術(shù)的倫理底線與合法性邊界。
當(dāng)前,我國(guó)科技倫理治理存在體制機(jī)制尚不健全、領(lǐng)域發(fā)展不均衡等問(wèn)題,難以適應(yīng)AI科技創(chuàng)新發(fā)展的現(xiàn)實(shí)需要。在從實(shí)驗(yàn)室技術(shù)研發(fā)走向商業(yè)化和社會(huì)化的過(guò)程中,AI發(fā)展應(yīng)用“數(shù)字公地”(digital commons)屬性逐步增強(qiáng),設(shè)定科技倫理法律規(guī)則的必要性愈發(fā)凸顯。AI科技倫理法治體系的構(gòu)建需厘清科技開(kāi)發(fā)應(yīng)用、科技倫理設(shè)定、法律規(guī)則介入三者之間的關(guān)系,尋求科技發(fā)展、倫理引導(dǎo)及法律實(shí)現(xiàn)之間的平衡點(diǎn),提升科技倫理法治能力,有效防范科技倫理風(fēng)險(xiǎn),不斷推動(dòng)科技向善、造福人類。
AI技術(shù)發(fā)展與科技倫理的關(guān)系
人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù)。我國(guó)人工智能的應(yīng)用場(chǎng)景豐富、用戶群體規(guī)模和數(shù)據(jù)量龐大、產(chǎn)業(yè)需求與消費(fèi)需求旺盛,政府高度重視AI產(chǎn)業(yè)創(chuàng)新發(fā)展,大力促進(jìn)人工智能與實(shí)體經(jīng)濟(jì)深度融合。推動(dòng)AI技術(shù)創(chuàng)新發(fā)展,對(duì)于培育新質(zhì)生產(chǎn)力具有重要作用??萍紓惱硎强萍蓟顒?dòng)必須遵循的價(jià)值理念和行為規(guī)范,不僅要把握科技發(fā)展規(guī)律,同時(shí)應(yīng)約束科技發(fā)展可能出現(xiàn)的違反道德倫理的行為。當(dāng)下,AI科技倫理是一項(xiàng)復(fù)雜的實(shí)踐活動(dòng),貫穿于AI全生命周期的技術(shù)設(shè)計(jì)、產(chǎn)品行為、應(yīng)用場(chǎng)景等一系列環(huán)節(jié),涉及諸多實(shí)施行為主體、技術(shù)路線開(kāi)發(fā)者、基礎(chǔ)設(shè)施所有者以及社會(huì)公眾等多方參與者的利益訴求和多種利益沖突?;诖?,AI的技術(shù)設(shè)計(jì)與應(yīng)用全周期應(yīng)遵守科技倫理規(guī)范??萍及l(fā)展與科技倫理之間并不是“二元對(duì)立”的關(guān)系,科技倫理通過(guò)防止科技發(fā)展的復(fù)雜性給社會(huì)帶來(lái)的倫理沖擊,更好地實(shí)現(xiàn)數(shù)字科技與人類、數(shù)字科技與自然、科技創(chuàng)新與科技倫理之間的和諧共生。
2022年3月,中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,明確強(qiáng)調(diào)人工智能等是科技倫理治理的重點(diǎn)領(lǐng)域,充分表明國(guó)家對(duì)AI科技倫理治理的高度重視。不僅提出了“倫理先行、依法依規(guī)、敏捷治理、立足國(guó)情、開(kāi)放合作”的治理要求,還提出了“增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開(kāi)透明”的治理原則。2023年7月,國(guó)家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務(wù)管理暫行辦法》,為科技倫理治理指明了發(fā)展方向。2023年9月,科技部等十部門聯(lián)合研究起草、經(jīng)中央科技委員會(huì)同意并印發(fā)了《科技倫理審查辦法(試行)》,將人工智能列入應(yīng)設(shè)立科技倫理(審查)委員會(huì)的科技活動(dòng)單位范圍內(nèi),在7大類需要實(shí)行清單管理的重大風(fēng)險(xiǎn)新興科技活動(dòng)中,有4大類涉及人工智能倫理審查。這些規(guī)范性文件凸顯了AI科技倫理治理的必要性、緊迫性和重要性。與快速迭代的技術(shù)相比,AI科技倫理治理落地實(shí)施的制度尚不完善,合規(guī)底線不夠明確,倫理審查與監(jiān)管存在空白,配套的懲戒措施缺乏力度。對(duì)此,一方面,要秉持科技向善的人文理念和倫理先行的價(jià)值觀念,將倫理道德融入AI全生命周期,增強(qiáng)全社會(huì)的AI科技倫理意識(shí)與行為自覺(jué)。另一方面,要加強(qiáng)科技倫理治理,尤其需要加強(qiáng)法律監(jiān)管,明確責(zé)任主體,強(qiáng)化倫理審查,推進(jìn)依法治理,實(shí)現(xiàn)科技發(fā)展與倫理治理相互促進(jìn)、動(dòng)態(tài)調(diào)適。
AI發(fā)展應(yīng)用面臨的主要科技倫理挑戰(zhàn)
一是數(shù)據(jù)隱私。AI的本質(zhì)之一是數(shù)據(jù)驅(qū)動(dòng),數(shù)據(jù)往往包含用戶個(gè)人信息,是隱私與AI之間的重要連接要素。隨著AI技術(shù)的應(yīng)用,數(shù)據(jù)隱私和個(gè)人信息安全成為重要課題,需要正視數(shù)據(jù)隱私風(fēng)險(xiǎn),平衡技術(shù)發(fā)展與隱私保護(hù)之間的關(guān)系。
第一,數(shù)據(jù)不正當(dāng)收集與數(shù)據(jù)過(guò)度收集風(fēng)險(xiǎn)。在通過(guò)自動(dòng)識(shí)別算法、網(wǎng)絡(luò)爬蟲(chóng)等技術(shù)方式獲取數(shù)據(jù)時(shí),AI模型對(duì)于個(gè)人數(shù)據(jù)的收集邊界是模糊的。在網(wǎng)上公開(kāi)數(shù)據(jù)源和商務(wù)采購(gòu)時(shí),由于目前數(shù)據(jù)共享、交易和流通的市場(chǎng)化機(jī)制不健全,存在非法數(shù)據(jù)、違規(guī)買賣數(shù)據(jù)、暗網(wǎng)數(shù)據(jù)等不正當(dāng)收集行為和一些未經(jīng)授權(quán)的收集行為。這些數(shù)據(jù)的獲取缺乏用戶知情同意,實(shí)際并沒(méi)有獲得采集權(quán)限,存在侵害用戶數(shù)據(jù)隱私的風(fēng)險(xiǎn)。
第二,數(shù)據(jù)存儲(chǔ)的隱私泄露風(fēng)險(xiǎn)。一方面,在對(duì)數(shù)據(jù)進(jìn)行存儲(chǔ)時(shí),如果沒(méi)有對(duì)數(shù)據(jù)采取充分的技術(shù)安全防護(hù),且沒(méi)有明確的隱私界定與標(biāo)注,則可能會(huì)出現(xiàn)涉及隱私的數(shù)據(jù)被用于公開(kāi)的AI訓(xùn)練的情況,或通過(guò)網(wǎng)絡(luò)攻擊等黑客行為竊取數(shù)據(jù)而導(dǎo)致個(gè)人隱私泄露。另一方面,在AI數(shù)據(jù)處理使用的過(guò)程中,涉及眾多數(shù)據(jù)處理、存儲(chǔ)等環(huán)節(jié)。對(duì)于種類多、數(shù)據(jù)量大的數(shù)據(jù)集,數(shù)據(jù)的頻繁讀取、傳輸、存儲(chǔ)等環(huán)節(jié)難以真正實(shí)現(xiàn)全環(huán)節(jié)監(jiān)控和管理,存在被非法使用者利用、拷貝等安全隱患。
第三,數(shù)據(jù)流通的隱私泄露風(fēng)險(xiǎn)。由于大量AI企業(yè)會(huì)委托第三方公司或采用眾包的方式實(shí)現(xiàn)海量數(shù)據(jù)的采集、標(biāo)注、分析和算法優(yōu)化,數(shù)據(jù)將會(huì)在供應(yīng)鏈的各個(gè)主體之間形成復(fù)雜、實(shí)時(shí)的交互流通,可能會(huì)因?yàn)楦髦黧w數(shù)據(jù)安全能力的參差不齊,產(chǎn)生數(shù)據(jù)泄露或?yàn)E用的風(fēng)險(xiǎn)。此外,在全球數(shù)字經(jīng)濟(jì)發(fā)展不均衡的背景下,大型科技巨頭將AI的數(shù)據(jù)資源供給、數(shù)據(jù)分析能力、算法研發(fā)優(yōu)化、產(chǎn)品設(shè)計(jì)應(yīng)用等環(huán)節(jié)分散在不同的國(guó)家,數(shù)據(jù)跨境流動(dòng)的場(chǎng)景增多也會(huì)對(duì)國(guó)家安全和個(gè)人信息保護(hù)造成不可控的風(fēng)險(xiǎn)。
二是算法偏見(jiàn)。算法模型是AI運(yùn)算階段的核心技術(shù)特征,但算法并不具有絕對(duì)中立性,它的客觀性僅僅體現(xiàn)在算法運(yùn)行中。算法不僅具有內(nèi)在錯(cuò)誤或無(wú)意識(shí)偏見(jiàn),而且算法偏見(jiàn)產(chǎn)生的負(fù)面影響抑制著AI的創(chuàng)新發(fā)展與應(yīng)用,存在損害多方主體權(quán)益、固化社會(huì)偏見(jiàn)的風(fēng)險(xiǎn)。
算法偏見(jiàn)的本質(zhì)是AI時(shí)代社會(huì)偏見(jiàn)的一種體現(xiàn),這種偏見(jiàn)可能源自數(shù)據(jù)、模型或者算法設(shè)計(jì)人員。AI系統(tǒng)訓(xùn)練數(shù)據(jù)本身可能記錄了社會(huì)中存在的偏見(jiàn)?;谀P偷膹?fù)雜性,它可以捕捉到微小的數(shù)據(jù)模式,甚至是噪音,在不斷的優(yōu)化迭代中強(qiáng)化學(xué)習(xí)效果,可能在學(xué)習(xí)中產(chǎn)生偏見(jiàn)。算法設(shè)計(jì)人員的主觀意識(shí)總是有意或無(wú)意地融入整個(gè)運(yùn)行過(guò)程,他們的知識(shí)背景和立場(chǎng)是否受過(guò)專業(yè)訓(xùn)練,是否有足夠的背景知識(shí)及理念的構(gòu)成,都會(huì)對(duì)算法的公正性、客觀性造成挑戰(zhàn)。
算法偏見(jiàn)可能造成實(shí)質(zhì)不平等。譬如,商家為吸引更多用戶,通過(guò)給予新人優(yōu)惠、回歸補(bǔ)貼等差異化定價(jià)手段,造成“大數(shù)據(jù)殺熟”,侵害用戶利益。算法偏見(jiàn)還可能造成就業(yè)招聘時(shí)排除特定地域、特定性別的人群,在金融信貸行業(yè)錯(cuò)誤識(shí)別信用不良人士或給予特定人群優(yōu)待,在公共服務(wù)領(lǐng)域給特定人士錯(cuò)誤地打上危險(xiǎn)標(biāo)簽。這些算法偏見(jiàn)容易導(dǎo)致人們對(duì)AI應(yīng)用產(chǎn)生信任危機(jī)。
“可信”是AI產(chǎn)業(yè)健康持續(xù)發(fā)展的內(nèi)在要求,AI是否可信不僅會(huì)影響社會(huì)治理體系的運(yùn)行,也關(guān)乎AI的創(chuàng)新發(fā)展。在醫(yī)療、金融、司法等應(yīng)用領(lǐng)域,算法的不公平性甚至可能對(duì)生命、財(cái)產(chǎn)和自由產(chǎn)生威脅,使得人智協(xié)同發(fā)展難以實(shí)現(xiàn)。因此,應(yīng)審慎對(duì)待算法偏見(jiàn)風(fēng)險(xiǎn),充分尊重人的主體性,將人類社會(huì)價(jià)值體系、倫理道德、法律法規(guī)、生態(tài)環(huán)境等內(nèi)在需求納入AI生態(tài)全盤考量,確保AI生態(tài)系統(tǒng)的健康有序、和諧共生與可持續(xù)發(fā)展,避免出現(xiàn)與人類社會(huì)價(jià)值相悖的負(fù)面應(yīng)用。
三是責(zé)任劃分。隨著AI應(yīng)用的規(guī)?;褂?,實(shí)踐中造成損害的事例屢見(jiàn)不鮮,包括但不限于創(chuàng)造性成果歸屬、刑事犯罪規(guī)制、人格權(quán)及知識(shí)產(chǎn)權(quán)侵權(quán)損害救濟(jì)等,AI侵權(quán)爭(zhēng)議的增多與責(zé)任主體的模糊之間形成了巨大的“責(zé)任鴻溝”,AI的法律責(zé)任承擔(dān)問(wèn)題尚不明確。在此背景下,亟待厘清AI責(zé)任主體及其責(zé)任分配,解決無(wú)人擔(dān)責(zé)的困境。
從理論層面出發(fā),學(xué)界對(duì)于“AI法律主體地位”“AI是不是法律意義上的人”“AI能不能成為權(quán)利義務(wù)的最終歸屬”等問(wèn)題的看法尚未統(tǒng)一。根據(jù)現(xiàn)有的法律體系設(shè)置及實(shí)踐,AI尚沒(méi)有法律意義上的權(quán)利與義務(wù)內(nèi)容,難以成為民事法律主體。然而一些學(xué)者認(rèn)為,部分AI已經(jīng)具備類人化意識(shí)與行為能力的基本形態(tài),在擬制主體對(duì)人類經(jīng)濟(jì)社會(huì)發(fā)展發(fā)揮巨大作用的前提下,可以考慮由AI自身承擔(dān)部分責(zé)任,但由于其責(zé)任能力的限制以及以人為本的倫理基礎(chǔ),對(duì)該責(zé)任能力應(yīng)當(dāng)進(jìn)行明確限定。
從實(shí)踐層面出發(fā),AI侵權(quán)案件與傳統(tǒng)侵權(quán)案件引發(fā)的損害和風(fēng)險(xiǎn)的形式不同,AI的不透明性、不可預(yù)測(cè)性對(duì)傳統(tǒng)責(zé)任歸因機(jī)制產(chǎn)生了沖擊。以往構(gòu)成責(zé)任的前提條件通常包括“控制條件”和“認(rèn)知條件”兩方面,然而,一方面,AI的不透明性和不可解釋性導(dǎo)致結(jié)果的不確定性,在某種情況下會(huì)超出人類的控制范圍;另一方面,囿于AI使用情境和使用者的不同產(chǎn)生的多重穩(wěn)定性,使得對(duì)AI的認(rèn)知以及相應(yīng)責(zé)任的追究更為困難。譬如,根據(jù)《中華人民共和國(guó)侵權(quán)責(zé)任法》的規(guī)定,制造商和銷售商是主要責(zé)任主體,但在AI情景下,還應(yīng)當(dāng)明確開(kāi)發(fā)者的安全注意義務(wù),建立新的AI侵權(quán)責(zé)任機(jī)制,促使發(fā)展“負(fù)責(zé)任的AI”成為符合人類共同利益的選擇。
構(gòu)建與完善AI發(fā)展應(yīng)用的科技倫理法治化進(jìn)路
AI發(fā)展日新月異,面臨諸多變量,應(yīng)對(duì)AI科技倫理挑戰(zhàn)則應(yīng)把握這些變化中的“不變”,把握好堅(jiān)守技術(shù)創(chuàng)新前沿動(dòng)態(tài)的科學(xué)觀、充滿人本主義情懷的倫理觀、兼顧技術(shù)發(fā)展與制度進(jìn)步的法治觀以及預(yù)判評(píng)估技術(shù)并進(jìn)行決策的治理觀。
一是明確AI規(guī)制目標(biāo)與重點(diǎn)。AI技術(shù)的發(fā)展邏輯顛覆了傳統(tǒng)的社會(huì)治理模式,全新的治理模式期待全新的規(guī)制和監(jiān)管路徑。當(dāng)前的規(guī)制目標(biāo)在于實(shí)現(xiàn)以規(guī)制促發(fā)展,堅(jiān)持安全可信的法治之維、科技向善的倫理之維、創(chuàng)新發(fā)展的技術(shù)之維,圍繞“社會(huì)—人類—機(jī)器”等要素,從“法律—倫理—技術(shù)”等維度展開(kāi)規(guī)制,在法治軌道上鼓勵(lì)技術(shù)創(chuàng)新。
首先,從法治維度出發(fā),應(yīng)建立負(fù)責(zé)任的AI治理機(jī)制,建立AI安全可信的標(biāo)準(zhǔn)和評(píng)價(jià)體系,筑牢安全底線,促進(jìn)AI健康發(fā)展。AI大模型訓(xùn)練及AI場(chǎng)景應(yīng)用中的數(shù)據(jù)濫用、隱私泄露、算法偏見(jiàn)以及侵權(quán)責(zé)任等問(wèn)題不時(shí)出現(xiàn),筑牢安全底線刻不容緩。當(dāng)前,針對(duì)AI應(yīng)用立法仍存在不足和空白,應(yīng)對(duì)AI應(yīng)用的安全性、可信性、倫理合規(guī)性等方面進(jìn)行量化評(píng)估,為AI技術(shù)的發(fā)展提供明確的方向和參考。在此背景下,為進(jìn)一步推進(jìn)AI治理法治化,應(yīng)樹(shù)立完善的技術(shù)發(fā)展與應(yīng)用理念,保證AI應(yīng)用在面對(duì)攻擊和威脅時(shí)能夠保持正常運(yùn)行和數(shù)據(jù)安全,加快推動(dòng)完善針對(duì)AI的法律地位、AI成果權(quán)利歸屬、AI損害后果的責(zé)任劃分、AI風(fēng)險(xiǎn)的法律控制等重點(diǎn)問(wèn)題的法律規(guī)范,著力平衡AI產(chǎn)業(yè)發(fā)展和社會(huì)安全,保證AI輸出結(jié)果是可預(yù)測(cè)的、可解釋的,并且符合人類的價(jià)值觀和倫理準(zhǔn)則,防止技術(shù)在利益的裹挾下無(wú)序應(yīng)用,以法治保障AI健康發(fā)展。
其次,從科技倫理維度出發(fā),應(yīng)建立一整套相對(duì)完整的制度規(guī)范體系,這一體系應(yīng)基于增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)以及提升倫理素養(yǎng)這六項(xiàng)基本倫理要求,推動(dòng)AI朝著通用、可信、負(fù)責(zé)任的方向發(fā)展。一方面,應(yīng)為AI產(chǎn)品研發(fā)設(shè)計(jì)人員制定道德規(guī)范和行為守則;另一方面,應(yīng)構(gòu)建多層次的倫理道德判斷結(jié)構(gòu)以及人機(jī)協(xié)作的倫理框架。在AI等數(shù)字科技倫理治理過(guò)程中,應(yīng)堅(jiān)持以人民為中心的發(fā)展思想,踐行科技向善的人文理念,并結(jié)合不同的數(shù)字化應(yīng)用場(chǎng)景,確保AI應(yīng)用的合理合規(guī)、公開(kāi)透明。
最后,從技術(shù)維度出發(fā),應(yīng)在確保AI安全可信、科技向善、符合倫理的前提下,積極鼓勵(lì)A(yù)I技術(shù)的融合與創(chuàng)新,不斷拓展其應(yīng)用場(chǎng)景,并努力嘗試跨學(xué)科交叉融合,以推動(dòng)AI應(yīng)用的可持續(xù)發(fā)展。具體而言,AI技術(shù)應(yīng)進(jìn)一步與物聯(lián)網(wǎng)、云計(jì)算、大數(shù)據(jù)等深度融合,構(gòu)建更加智能、高效、便捷的服務(wù)體系。同時(shí),還應(yīng)不斷拓展AI在智能家居、自動(dòng)駕駛、醫(yī)療診斷、金融分析等多個(gè)領(lǐng)域的應(yīng)用,加強(qiáng)跨學(xué)科交叉融合。例如,在醫(yī)療診斷領(lǐng)域,AI技術(shù)可以輔助醫(yī)生進(jìn)行疾病診斷、制定治療方案;在金融分析領(lǐng)域,AI技術(shù)可以實(shí)現(xiàn)風(fēng)險(xiǎn)評(píng)估、優(yōu)化投資策略等功能。
二是完善AI相關(guān)制度設(shè)計(jì)與實(shí)踐進(jìn)路。科技法治是鼓勵(lì)與規(guī)范科技創(chuàng)新的基石,而科技倫理則致力于優(yōu)化和改善科技創(chuàng)新。無(wú)論是科技倫理還是科技法治,都旨在推動(dòng)科技創(chuàng)新的同時(shí),遏制科技不端行為和科技濫用違法現(xiàn)象。為此,應(yīng)完善相關(guān)法律制度的設(shè)計(jì)與實(shí)踐路徑,加強(qiáng)行業(yè)監(jiān)管,明確行為底線,多方協(xié)作,對(duì)AI應(yīng)用中的不法行為進(jìn)行有效監(jiān)管,確保AI技術(shù)的健康與可持續(xù)發(fā)展。
首先,加強(qiáng)數(shù)據(jù)保護(hù)與隱私立法。應(yīng)完善數(shù)據(jù)相關(guān)法律法規(guī),明確數(shù)據(jù)收集、存儲(chǔ)、處理和共享的規(guī)范,為AI技術(shù)開(kāi)發(fā)與應(yīng)用中的數(shù)據(jù)相關(guān)行為提供法律指引?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》對(duì)數(shù)據(jù)安全和隱私保護(hù)作出了具體規(guī)定,包括服務(wù)提供者需確保數(shù)據(jù)來(lái)源的合法性,以及關(guān)于訓(xùn)練數(shù)據(jù)的特性、個(gè)人信息與知識(shí)產(chǎn)權(quán)的保護(hù)規(guī)定。該辦法還將相關(guān)監(jiān)督檢查和法律責(zé)任納入我國(guó)網(wǎng)絡(luò)安全和數(shù)據(jù)隱私保護(hù)的基礎(chǔ)性法律框架內(nèi)。在不斷完善法律規(guī)范的同時(shí),還應(yīng)加大監(jiān)管執(zhí)法力度,嚴(yán)厲打擊侵犯?jìng)€(gè)人隱私的行為,確保法律的有效實(shí)施。此外,面對(duì)經(jīng)濟(jì)全球化背景下數(shù)據(jù)跨境流動(dòng)帶來(lái)的發(fā)展機(jī)遇與數(shù)據(jù)安全挑戰(zhàn),應(yīng)加強(qiáng)在數(shù)據(jù)保護(hù)和隱私立法方面的國(guó)際合作,消除數(shù)據(jù)跨境傳輸過(guò)程中存在的數(shù)據(jù)泄露和隱私侵犯的隱患,共同維護(hù)全球數(shù)據(jù)安全和隱私權(quán)益。
其次,優(yōu)化算法設(shè)計(jì)與公平性審查。算法是AI發(fā)展的核心技術(shù)工具,只有合規(guī)、良善的算法才能更好地促進(jìn)AI的安全、可信、負(fù)責(zé)任發(fā)展。第一,優(yōu)化法律體系配置,重點(diǎn)關(guān)注算法偏見(jiàn)問(wèn)題,并加強(qiáng)法律法規(guī)間的協(xié)同,構(gòu)建全方位、多層次、立體化的算法偏見(jiàn)規(guī)制體系,涵蓋法律、行政規(guī)章及地方性法規(guī),為個(gè)人提供充分的數(shù)據(jù)權(quán)利保障,為抵御算法偏見(jiàn)侵害提供堅(jiān)實(shí)法律支撐。第二,實(shí)施算法分類分級(jí)管理,細(xì)化《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中的分類標(biāo)準(zhǔn),并制定相應(yīng)的風(fēng)險(xiǎn)等級(jí)和監(jiān)管舉措,完善基于算法分類分級(jí)的算法備案、算法評(píng)估、算法安全風(fēng)險(xiǎn)監(jiān)測(cè)和算法審計(jì)制度,提升制度的明確性和可操作性。第三,探索建立算法偏見(jiàn)公益訴訟制度,結(jié)合民事與行政公益訴訟,完善救濟(jì)途徑,保障公共利益,引導(dǎo)算法在法治框架內(nèi)有序發(fā)展,推動(dòng)數(shù)字化進(jìn)程更加成熟完善。
再次,提高AI決策的透明度與可解釋性。透明度是AI確保其內(nèi)部算法可見(jiàn)性的關(guān)鍵屬性,包括公開(kāi)數(shù)據(jù)、特征、模型、算法、訓(xùn)練方法和質(zhì)量保證程序,以便外部監(jiān)督和審查??山忉屝缘哪繕?biāo)是增強(qiáng)理解,使目標(biāo)受眾更好地理解AI的行動(dòng)與決策。因此,應(yīng)建立公開(kāi)透明、可解釋的AI監(jiān)管體系。第一,提升AI模型技術(shù)和數(shù)據(jù)源的透明度,公開(kāi)AI在系統(tǒng)開(kāi)發(fā)、數(shù)據(jù)收集、管理、結(jié)果可操作化等過(guò)程的信息,使用戶了解AI模型決策的過(guò)程、依據(jù)和規(guī)則,打破黑箱壁壘,增強(qiáng)用戶對(duì)模型的信任。第二,強(qiáng)化公眾審查和監(jiān)督,落實(shí)算法備案、算法審計(jì)等制度,協(xié)助用戶追溯數(shù)據(jù)輸入、輸出、運(yùn)行過(guò)程與自動(dòng)化決策結(jié)果間的因果關(guān)系,全面審視數(shù)據(jù)收集方法、自我審核流程、價(jià)值承諾及利益相關(guān)者參與等過(guò)程。當(dāng)利益相關(guān)者的權(quán)益可能因自動(dòng)化決策受損時(shí),可解釋性能及時(shí)解答疑問(wèn),提供救濟(jì)。第三,完善AI備案制度,優(yōu)化互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng),拓展備案信息范圍,要求備案主體公開(kāi)更多技術(shù)要素,如運(yùn)作原理、系統(tǒng)架構(gòu)、數(shù)據(jù)集、訓(xùn)練模型及參數(shù)等,并闡述其價(jià)值觀和要解決的技術(shù)問(wèn)題。同時(shí),也要將相關(guān)外國(guó)主體納入備案范疇,確保其遵守我國(guó)相關(guān)規(guī)定。
最后,明確責(zé)任主體與加大監(jiān)管力度。雖然AI應(yīng)用帶來(lái)了傳統(tǒng)“主體—行為—責(zé)任”理論下的“責(zé)任鴻溝”問(wèn)題,但AI算法技術(shù)的應(yīng)用,如算法的設(shè)計(jì)與部署,都蘊(yùn)含了價(jià)值觀和主觀意圖,這是法律追責(zé)的核心,也是判定法律責(zé)任的關(guān)鍵。因此,應(yīng)尊重技術(shù)邏輯,構(gòu)建機(jī)器/人—機(jī)聯(lián)合體,并根據(jù)侵權(quán)場(chǎng)景的類型化,確立多方責(zé)任主體的識(shí)別路徑,聚焦行為正當(dāng)性的判斷。以AI算法設(shè)計(jì)部署中的主觀過(guò)錯(cuò)作為追責(zé)的基礎(chǔ),結(jié)合聯(lián)合體內(nèi)的責(zé)任與經(jīng)濟(jì)利益的關(guān)聯(lián),實(shí)現(xiàn)責(zé)任分配的公正性。此外,還需增強(qiáng)《中華人民共和國(guó)民法典》《中華人民共和國(guó)刑法》等法律在AI應(yīng)用場(chǎng)景中對(duì)主體責(zé)任和產(chǎn)品質(zhì)量缺陷等問(wèn)題的適用性,強(qiáng)化對(duì)AI設(shè)計(jì)和應(yīng)用監(jiān)督的雙重監(jiān)管。在責(zé)任判定中,應(yīng)綜合考慮行為人和AI服務(wù)提供商在侵權(quán)行為及損害后果中的實(shí)際作用。如果發(fā)生損害,可參考《中華人民共和國(guó)民法典》中的產(chǎn)品生產(chǎn)者責(zé)任條款,即產(chǎn)品缺陷造成他人損害的,生產(chǎn)者應(yīng)承擔(dān)侵權(quán)責(zé)任,被侵權(quán)人有權(quán)向產(chǎn)品提供者索賠。這要求AI提供者,通常是平臺(tái)主體,履行高度注意義務(wù)。賦予AI提供者相應(yīng)責(zé)任義務(wù),有助于規(guī)范生成內(nèi)容的合法性。當(dāng)然,若平臺(tái)已履行其義務(wù),鑒于其對(duì)創(chuàng)新發(fā)展的貢獻(xiàn),在責(zé)任承擔(dān)上不宜過(guò)于嚴(yán)苛,以免阻礙AI技術(shù)發(fā)展和未來(lái)商業(yè)應(yīng)用。
隨著AI技術(shù)發(fā)展和應(yīng)用場(chǎng)景的縱深拓展,AI治理面臨著道德倫理約束和法律規(guī)制的雙重現(xiàn)實(shí)困境。我國(guó)AI的科技倫理規(guī)范和相關(guān)立法應(yīng)秉持包容審慎的態(tài)度,既不能只建立回應(yīng)型立法,也不能推行過(guò)于嚴(yán)苛的制度限制AI的發(fā)展應(yīng)用。因此,應(yīng)繼續(xù)探索合理的AI科技倫理及合法性邊界,堅(jiān)持科技倫理與法律規(guī)范雙管齊下,在有序的制度框架內(nèi)完善數(shù)據(jù)算法的糾偏功能,推動(dòng)AI技術(shù)與產(chǎn)業(yè)向安全、可信、負(fù)責(zé)任的方向發(fā)展。
(作者為南開(kāi)大學(xué)法學(xué)院副院長(zhǎng)、教授、博導(dǎo),南開(kāi)大學(xué)競(jìng)爭(zhēng)法研究中心主任)
【注:本文系2023年度最高人民法院司法研究重大課題“數(shù)據(jù)權(quán)益知識(shí)產(chǎn)權(quán)司法保護(hù)問(wèn)題研究”(項(xiàng)目編號(hào):ZGFYZDKT202317-03)及教育部人文社會(huì)科學(xué)重點(diǎn)研究基地重大項(xiàng)目“全球數(shù)據(jù)競(jìng)爭(zhēng)中人權(quán)基準(zhǔn)的考量與促進(jìn)研究”(項(xiàng)目編號(hào):19JJD820009)階段性成果】
【參考文獻(xiàn)】
①岳平、苗越:《社會(huì)治理:人工智能時(shí)代算法偏見(jiàn)的問(wèn)題與規(guī)制》,《上海大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,2021年第6期。
②陳兵:《生成式人工智能可信發(fā)展的法治基礎(chǔ)》,《上海政法學(xué)院學(xué)報(bào)(法治論叢)》,2023年第4期。
③陸小華、陸賽賽:《論生成式人工智能侵權(quán)的責(zé)任主體——以集體主義為視角》,《南昌大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)》,2024年第1期。
責(zé)編/銀冰瑤 美編/楊玲玲
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。