青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 理論前沿 > 深度原創(chuàng) > 正文

生成式人工智能治理的態(tài)勢(shì)、挑戰(zhàn)與展望

核心提示: 作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場(chǎng)景、新業(yè)態(tài)、新模式和新市場(chǎng),改變了信息和知識(shí)的生產(chǎn)方式,重塑了人類(lèi)與技術(shù)的交互模式,對(duì)教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國(guó)紛紛出臺(tái)人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點(diǎn)。與此同時(shí),生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當(dāng)利用等安全風(fēng)險(xiǎn)也引起各國(guó)廣泛關(guān)注。生成式人工智能的發(fā)展、運(yùn)用和治理,不再是某一國(guó)而是整個(gè)國(guó)際社會(huì)面臨的共同挑戰(zhàn)。

【摘要】作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場(chǎng)景、新業(yè)態(tài)、新模式和新市場(chǎng),改變了信息和知識(shí)的生產(chǎn)方式,重塑了人類(lèi)與技術(shù)的交互模式,對(duì)教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國(guó)紛紛出臺(tái)人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點(diǎn)。與此同時(shí),生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當(dāng)利用等安全風(fēng)險(xiǎn)也引起各國(guó)廣泛關(guān)注。生成式人工智能的發(fā)展、運(yùn)用和治理,不再是某一國(guó)而是整個(gè)國(guó)際社會(huì)面臨的共同挑戰(zhàn)。為有效應(yīng)對(duì)生成式人工智能對(duì)信息內(nèi)容治理的新挑戰(zhàn),應(yīng)當(dāng)平衡安全和發(fā)展的關(guān)系、技術(shù)創(chuàng)新和技術(shù)治理的關(guān)系、企業(yè)合規(guī)義務(wù)和企業(yè)負(fù)擔(dān)能力的關(guān)系。

【關(guān)鍵詞】生成式人工智能 治理模式 立法 內(nèi)外部挑戰(zhàn) 多維平衡 【中圖分類(lèi)號(hào)】D92 【文獻(xiàn)標(biāo)識(shí)碼】A

生成式人工智能(Generative AI)是人工智能發(fā)展過(guò)程中出現(xiàn)的新型技術(shù),可使用統(tǒng)計(jì)方法根據(jù)概率生成新內(nèi)容,如視頻、音頻、文本甚至軟件代碼。通過(guò)使用Transformer(一種基于自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型),生成式人工智能可深入分析現(xiàn)有數(shù)據(jù)集,識(shí)別其中的位置連接和關(guān)聯(lián)關(guān)系,再借助人類(lèi)反饋強(qiáng)化學(xué)習(xí)算法(Reinforcement Learning from Human Feedback)不斷優(yōu)化訓(xùn)練形成大語(yǔ)言模型,最終能夠?yàn)樾聝?nèi)容的生成作出決策或預(yù)測(cè)。①除了文本生成和內(nèi)容創(chuàng)作之外,生成式人工智能還擁有廣泛的應(yīng)用場(chǎng)景,如客戶(hù)服務(wù)、投資管理、藝術(shù)創(chuàng)作、學(xué)術(shù)研究、代碼編程、虛擬協(xié)助等。概言之,自我生成、自我學(xué)習(xí)并快速迭代是生成式人工智能區(qū)別于傳統(tǒng)人工智能的基本特點(diǎn)。

國(guó)家網(wǎng)信辦等七部門(mén)正式發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱(chēng)《暫行辦法》)自2023年8月15日起施行,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國(guó)家安全和社會(huì)公共利益。作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場(chǎng)景、新業(yè)態(tài)、新模式和新市場(chǎng),改變了信息和知識(shí)的生產(chǎn)方式,重塑了人類(lèi)與技術(shù)的交互模式,對(duì)教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國(guó)紛紛出臺(tái)人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點(diǎn)。與此同時(shí),生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當(dāng)利用等安全風(fēng)險(xiǎn)也引起各國(guó)廣泛關(guān)注??梢钥隙ǖ刂v,生成式人工智能的發(fā)展、運(yùn)用和治理,不再是某一國(guó)而是整個(gè)國(guó)際社會(huì)面臨的共同挑戰(zhàn)。

國(guó)外人工智能主要監(jiān)管模式評(píng)析

人工智能是一把“雙刃劍”,在促進(jìn)社會(huì)進(jìn)步的同時(shí),也帶來(lái)了風(fēng)險(xiǎn)與挑戰(zhàn)。國(guó)際社會(huì)致力于持續(xù)推動(dòng)人工智能向善發(fā)展。例如,聯(lián)合國(guó)教科文組織通過(guò)了首份人工智能倫理問(wèn)題全球性協(xié)議——《人工智能倫理問(wèn)題建議書(shū)》,明確了相稱(chēng)性和不損害、安全和安保、公平和非歧視等十項(xiàng)原則。歐盟自2018年以來(lái)持續(xù)推進(jìn)人工智能的設(shè)計(jì)、開(kāi)發(fā)和部署,同時(shí)努力規(guī)范人工智能及機(jī)器人的使用和管理。2024年初生效的歐盟《人工智能法案》助推此項(xiàng)工作達(dá)到高潮,甚至成為人工智能治理史上的里程碑。美國(guó)更注重人工智能發(fā)展,以《人工智能權(quán)利法案藍(lán)圖》(以下簡(jiǎn)稱(chēng)《權(quán)利法案藍(lán)圖》)為主要舉措對(duì)人工智能發(fā)展進(jìn)行規(guī)制。鑒于歐盟和美國(guó)的人工智能治理措施相對(duì)成熟且具有代表性,下文以二者為例探討不同監(jiān)管模式的優(yōu)劣,希冀為我國(guó)人工智能的健康發(fā)展和有效治理提供借鑒。

歐盟人工智能立法:安全優(yōu)先,兼顧公平。從立法歷程上看,2021年4月,歐盟委員會(huì)發(fā)布了立法提案《歐洲議會(huì)和理事會(huì)關(guān)于制定人工智能統(tǒng)一規(guī)則(人工智能法) 和修訂某些歐盟立法的條例》(以下簡(jiǎn)稱(chēng)《人工智能法案》),開(kāi)啟了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折衷草案的最終版。2023年6月,歐洲議會(huì)通過(guò)了《人工智能法案》的談判授權(quán)草案,并修訂了原始提案。2023年12月8日,歐洲議會(huì)、歐洲理事會(huì)和歐盟委員會(huì)三方就《人工智能法案》達(dá)成協(xié)議,法案規(guī)定了對(duì)人工智能領(lǐng)域的全面監(jiān)管。從總體上看,《人工智能法案》在歐盟建立起人工智能開(kāi)發(fā)、使用的道德和法律框架,并輔以《人工智能責(zé)任指令》確保落地執(zhí)行。《人工智能法案》的多輪討論主要圍繞以下內(nèi)容:

一是人工智能的定義與法案適用范圍。《人工智能法案》第3條將人工智能定義為一種或多種技術(shù)和方法開(kāi)發(fā)的軟件,其能夠影響交互環(huán)境的輸出(如內(nèi)容、預(yù)測(cè)、建議或決策),實(shí)現(xiàn)人為指定的特定目標(biāo)。該定義范圍較為廣泛,可能涵蓋大量傳統(tǒng)上不被視為人工智能的軟件,不利于人工智能的發(fā)展和治理。因而,當(dāng)前版本將人工智能定義限縮為“基于機(jī)器學(xué)習(xí)或邏輯和知識(shí)的系統(tǒng)”,旨在以不同的自主性水平運(yùn)行,并且為了明確或隱含的目標(biāo),可以影響物理或虛擬環(huán)境的預(yù)測(cè)、建議或決策等輸出。同時(shí),刪除了附件一和歐盟委員會(huì)修改人工智能定義的授權(quán)?!度斯ぶ悄芊ò浮冯m未涉及生成式人工智能,但ChatGPT的出現(xiàn),使得立法者在修正案中增加了通用人工智能和基礎(chǔ)模型相關(guān)定義,并要求生成式人工智能遵守額外的透明度要求,如披露內(nèi)容來(lái)源、設(shè)計(jì)模型禁止非法生成?!度斯ぶ悄芊ò浮肪哂杏蛲庑ЯΓm用于所有人工智能系統(tǒng)的提供商和部署者(無(wú)論是在歐盟還是在第三國(guó)建立的)以及所有分銷(xiāo)商和進(jìn)口商、提供商的授權(quán)代表、在歐盟建立或位于歐盟的某些產(chǎn)品的制造商,以及健康、安全或基本權(quán)利因使用人工智能系統(tǒng)而受到重大影響的歐盟數(shù)據(jù)主體。

二是人工智能的監(jiān)管模式?!度斯ぶ悄芊ò浮凡捎昧嘶陲L(fēng)險(xiǎn)的分級(jí)監(jiān)管方法(risk-based approach),根據(jù)對(duì)健康、安全和自然人基本權(quán)利的潛在風(fēng)險(xiǎn)對(duì)其進(jìn)行分類(lèi)并設(shè)置不同義務(wù):第一是不可接受的風(fēng)險(xiǎn),禁止任何企業(yè)或個(gè)人部署;第二是高風(fēng)險(xiǎn),允許相關(guān)主體在履行事前評(píng)估等義務(wù)后投放市場(chǎng)或使用,同時(shí)要求事中、事后持續(xù)監(jiān)測(cè);第三是有限風(fēng)險(xiǎn),無(wú)須取得特殊牌照、認(rèn)證或履行報(bào)告、記錄等義務(wù),但應(yīng)遵循透明度原則,允許適當(dāng)可追溯性和可解釋性;第四是低風(fēng)險(xiǎn)或最低風(fēng)險(xiǎn),相應(yīng)主體可依據(jù)自由意志部署和使用。具體到生成式人工智能而言,由于其沒(méi)有特定目的并且可應(yīng)用于不同場(chǎng)景,故不能基于一般方式或操作模式對(duì)其進(jìn)行風(fēng)險(xiǎn)分級(jí),而應(yīng)當(dāng)按照開(kāi)發(fā)或使用生成式人工智能的預(yù)期目的和具體應(yīng)用領(lǐng)域。②

三是人工智能的一般原則。具體包括:人類(lèi)代理和監(jiān)督:人工智能系統(tǒng)的開(kāi)發(fā)和使用必須作為服務(wù)于人類(lèi)的工具,尊重人類(lèi)尊嚴(yán)、個(gè)人自主性和功能,并由人類(lèi)適當(dāng)控制和監(jiān)督;技術(shù)穩(wěn)健性和安全性:人工智能的開(kāi)發(fā)和部署應(yīng)最大限度地減少意外和意外的損害,確保在出現(xiàn)意外問(wèn)題時(shí)的穩(wěn)健性,以及在惡意第三方試圖改變?nèi)斯ぶ悄芟到y(tǒng)性能而非法使用時(shí)的彈性;隱私和數(shù)據(jù)保護(hù):人工智能系統(tǒng)必須按照現(xiàn)有的隱私和數(shù)據(jù)保護(hù)規(guī)則開(kāi)發(fā)和使用,同時(shí)處理在質(zhì)量和完整性方面符合高標(biāo)準(zhǔn)的數(shù)據(jù);透明度:人工智能系統(tǒng)的開(kāi)發(fā)和使用方式必須允許適當(dāng)?shù)目勺匪菪院涂山忉屝?,讓人?lèi)意識(shí)到他們與人工智能系統(tǒng)進(jìn)行通信或互動(dòng),并適當(dāng)?shù)馗嬷脩?hù)人工智能的能力和局限性,以及受影響之人享有的權(quán)利;非歧視和公平:人工智能系統(tǒng)的開(kāi)發(fā)和使用必須包括不同參與者,促進(jìn)平等使用、性別平等和文化多樣性,同時(shí)避免歐盟或國(guó)家法律禁止的歧視性影響和不公平偏見(jiàn);社會(huì)和環(huán)境福祉:人工智能系統(tǒng)應(yīng)以可持續(xù)和環(huán)保的方式開(kāi)發(fā)和使用,讓所有人受益,同時(shí)監(jiān)測(cè)和評(píng)估對(duì)個(gè)人、社會(huì)和民主的長(zhǎng)期影響。

歐盟意圖通過(guò)《人工智能法案》建立人工智能監(jiān)管全球標(biāo)準(zhǔn),進(jìn)而使歐洲在國(guó)際智能競(jìng)爭(zhēng)中取得優(yōu)勢(shì)地位?!度斯ぶ悄芊ò浮窞樘幚砣斯ぶ悄芟到y(tǒng)制定了相對(duì)合理的規(guī)則,在一定程度上可以避免歧視、監(jiān)視和其他潛在危害,特別是在與基本權(quán)利相關(guān)的領(lǐng)域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共場(chǎng)所的面部識(shí)別便是其一。此外,其將確定減輕風(fēng)險(xiǎn)的控制措施整合到可能出現(xiàn)風(fēng)險(xiǎn)的業(yè)務(wù)部門(mén)中,能夠幫助各組織了解人工智能系統(tǒng)的成本效益,開(kāi)展合規(guī)(自我)審查明確責(zé)任和義務(wù),最終自信地采用人工智能。但同時(shí),《人工智能法案》在風(fēng)險(xiǎn)分級(jí)、監(jiān)管力度、權(quán)利保護(hù)與責(zé)任機(jī)制等方面亦有缺陷,如其采用的是橫向立法,試圖把所有人工智能都納入監(jiān)管范圍,而未深入考量人工智能之間的不同特性,可能會(huì)導(dǎo)致相關(guān)風(fēng)險(xiǎn)防范措施面臨無(wú)法執(zhí)行的問(wèn)題。③

美國(guó)人工智能立法:強(qiáng)調(diào)自我監(jiān)管,支持技術(shù)創(chuàng)新。在人工智能法律和政策制定的全球背景下,美國(guó)逐漸形成以自愿原則為基礎(chǔ)的監(jiān)管框架。美國(guó)較為全面的監(jiān)管舉措是白宮科技政策辦公室(OSTP)于2022年10月發(fā)布的《權(quán)利法案藍(lán)圖》,其旨在支持自動(dòng)化系統(tǒng)設(shè)計(jì)、部署和治理過(guò)程中,保護(hù)公民權(quán)利。在《權(quán)利法案藍(lán)圖》指導(dǎo)下,聯(lián)邦各部門(mén)開(kāi)始各司其職,著手制定具體政策,如美國(guó)勞工部制定了《公正的人工智能行動(dòng)手冊(cè)》,旨在避免人工智能對(duì)求職者與員工產(chǎn)生基于種族、年齡、性別等特征的偏見(jiàn)。《權(quán)利法案藍(lán)圖》的核心內(nèi)容是五項(xiàng)原則:安全有效的系統(tǒng):公眾受到保護(hù),免受不安全或無(wú)效的系統(tǒng)的影響;算法歧視保護(hù):公眾不應(yīng)面臨算法和系統(tǒng)的歧視,自動(dòng)化系統(tǒng)應(yīng)當(dāng)以公平的方式使用和設(shè)計(jì);數(shù)據(jù)隱私:自動(dòng)化系統(tǒng)應(yīng)該有內(nèi)置的保護(hù)措施保障公眾的數(shù)據(jù)不被濫用,并且確保公眾享有使用數(shù)據(jù)的主導(dǎo)權(quán);知悉和解釋?zhuān)汗娪袡?quán)知道其正在使用自動(dòng)化系統(tǒng),并且理解它是什么以及如何產(chǎn)生對(duì)公眾有影響的結(jié)果;可替代性原則:在適當(dāng)?shù)那闆r下,公眾應(yīng)該能夠選擇不使用自動(dòng)化系統(tǒng),并使用人工替代方案或其他可選方案。④由于以上原則不受監(jiān)管而缺少約束力,故《權(quán)利法案藍(lán)圖》并非一份具有立法保護(hù)的可執(zhí)行的“權(quán)利法案”,更多的是立足未來(lái)設(shè)想的前瞻性治理藍(lán)圖。

目前美國(guó)國(guó)會(huì)對(duì)人工智能的監(jiān)管采取了相對(duì)不干涉的方法,盡管民主黨領(lǐng)導(dǎo)層已經(jīng)表示打算引入一項(xiàng)監(jiān)管人工智能的聯(lián)邦法。美國(guó)參議院多數(shù)黨領(lǐng)袖查克·舒默(Chuck Schumer)提出了指導(dǎo)未來(lái)人工智能立法和監(jiān)管的新框架,具體包括“何人”“何處”“如何”與“保護(hù)”四道護(hù)欄,要求科技公司在發(fā)布人工智能系統(tǒng)之前進(jìn)行審查和測(cè)試,并向用戶(hù)提供結(jié)果。但在美國(guó)兩黨互相制衡的情況下,該法律通過(guò)國(guó)會(huì)的可能性較低,即使有機(jī)會(huì)通過(guò),也需經(jīng)過(guò)多輪修改。與之相對(duì),面對(duì)歐盟《人工智能法案》帶來(lái)的戰(zhàn)略競(jìng)爭(zhēng)壓力以及以ChatGPT為代表的生成式人工智能的多領(lǐng)域安全風(fēng)險(xiǎn),美國(guó)聯(lián)邦機(jī)構(gòu)采取了積極介入的態(tài)度,在管轄權(quán)限內(nèi)進(jìn)行監(jiān)管。例如,美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)通過(guò)執(zhí)行《公平信貸報(bào)告法》《聯(lián)邦貿(mào)易委員會(huì)法》等法規(guī),積極監(jiān)管與人工智能有關(guān)的欺騙性和不公平行為,OpenAI面臨的第一起調(diào)查正是FTC進(jìn)行的;2023年1月,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)制定了《人工智能風(fēng)險(xiǎn)管理框架》,對(duì)人工智能存在的風(fēng)險(xiǎn)進(jìn)行了詳盡的分級(jí)分類(lèi);2023年4月,美國(guó)商務(wù)部就人工智能問(wèn)責(zé)措施公開(kāi)征求意見(jiàn),包括人工智能模型在發(fā)布前是否應(yīng)經(jīng)過(guò)認(rèn)證程序。

從美國(guó)地方層面上看,加州通過(guò)了《2018加州消費(fèi)者隱私法案》(CCPA),作為對(duì)歐盟《通用數(shù)據(jù)保護(hù)條例》的積極回應(yīng)。2023年,在議員鮑爾·卡漢(Bauer Kahan)的推動(dòng)下,加州提出AB331(Automated decision tools)法案,要求部署者和自動(dòng)化決策工具的開(kāi)發(fā)者在2025年1月1日或之前,以及此后每年,對(duì)其使用的任何自動(dòng)化決策工具進(jìn)行影響評(píng)估,其中包括自動(dòng)化決策工具的目的及其預(yù)期收益、用途和部署環(huán)境的聲明。紐約市頒布了《自動(dòng)化就業(yè)決策工具法》(《AEDT Law》),要求在招聘和晉升決策中使用“自動(dòng)化就業(yè)決策工具”的雇主和職業(yè)平臺(tái),對(duì)人工智能系統(tǒng)進(jìn)行全新的、徹底的審查以及更全面的風(fēng)險(xiǎn)測(cè)試,評(píng)估其是否落入《AEDT Law》的適用范圍。此外,得克薩斯州、佛蒙特州和華盛頓州的立法機(jī)構(gòu)均引入相關(guān)立法,要求州機(jī)構(gòu)對(duì)正在開(kāi)發(fā)、使用的人工智能系統(tǒng)進(jìn)行審查,有效披露人工智能的使用情況。可見(jiàn),美國(guó)地方政府對(duì)人工智能治理還是持積極態(tài)度。地方面臨的主要挑戰(zhàn)是,如何在最小妨礙的基礎(chǔ)上監(jiān)管硅谷的人工智能創(chuàng)新。以加州為例,為了克服這一挑戰(zhàn),其所提出的法案作了兩方面的規(guī)定:一是將人工智能治理的重心放在了算法決策對(duì)公民的權(quán)利、機(jī)會(huì)和獲得關(guān)鍵服務(wù)的風(fēng)險(xiǎn),而不是具體技術(shù)的細(xì)節(jié)上,能夠允許人工智能的創(chuàng)新發(fā)展;二是確立了人工智能透明度,要求開(kāi)發(fā)人員和用戶(hù)向加州民權(quán)部提交能夠詳細(xì)說(shuō)明所涉及的自動(dòng)化工具類(lèi)型的年度影響評(píng)估,供公眾訪(fǎng)問(wèn)。開(kāi)發(fā)人員還需制定一個(gè)治理框架,詳細(xì)說(shuō)明該技術(shù)的使用方式和可能的影響。此外,加州法案還提到私人訴訟權(quán)的問(wèn)題,通過(guò)允許個(gè)人在權(quán)利受到侵犯時(shí)提起訴訟,為權(quán)利保障提供了救濟(jì)途徑。⑤

目前美國(guó)人工智能監(jiān)管重點(diǎn)仍是將現(xiàn)有法律適用于人工智能,而不是制定專(zhuān)門(mén)性人工智能法律。例如,F(xiàn)TC多次表示《聯(lián)邦貿(mào)易委員會(huì)法》第5條“禁止不公平或欺詐行為”完全可適用于人工智能和機(jī)器學(xué)習(xí)系統(tǒng)。⑥事實(shí)上,如何協(xié)調(diào)現(xiàn)有法律與人工智能之間的沖突,不僅是某一國(guó)家的當(dāng)務(wù)之急,亦是國(guó)際社會(huì)面臨的緊迫問(wèn)題。目前,美國(guó)國(guó)會(huì)尚未就人工智能監(jiān)管的聯(lián)邦立法達(dá)成共識(shí),包括監(jiān)管框架、風(fēng)險(xiǎn)分類(lèi)分級(jí)等具體內(nèi)容。美國(guó)參議院多數(shù)黨領(lǐng)袖查克·舒默主張對(duì)人工智能進(jìn)行類(lèi)似歐盟的全面監(jiān)管,并通過(guò)制定框架、專(zhuān)題論壇等途徑加速?lài)?guó)會(huì)立法進(jìn)程,這與美國(guó)的自愿原則存在一定沖突,因而,聯(lián)邦層面人工智能監(jiān)管立法的出現(xiàn)還需較長(zhǎng)時(shí)日。

生成式人工智能對(duì)信息內(nèi)容治理的新挑戰(zhàn)

一般來(lái)講,人工智能面臨的風(fēng)險(xiǎn)主要來(lái)自技術(shù)、市場(chǎng)與規(guī)范等三個(gè)方面。⑦以ChatGPT為代表的生成式人工智能在靠近通用人工智能目標(biāo)的同時(shí),也帶來(lái)了信息內(nèi)容治理的全新挑戰(zhàn),亟需前瞻性、針對(duì)性的理論研究。學(xué)界分析生成式人工智能風(fēng)險(xiǎn)的主要視角包括:一是基于人工智能一般風(fēng)險(xiǎn),并結(jié)合生成式人工智能獨(dú)有特點(diǎn),對(duì)其在智能倫理、知識(shí)產(chǎn)權(quán)保護(hù)、隱私與個(gè)人數(shù)據(jù)保護(hù)等方面的風(fēng)險(xiǎn)展開(kāi)研究;⑧二是結(jié)合特定領(lǐng)域,研究生成式人工智能在該領(lǐng)域內(nèi)的風(fēng)險(xiǎn)與治理,如生成式人工智能在司法裁判中的量刑偏差風(fēng)險(xiǎn);三是立足生成式人工智能的運(yùn)行結(jié)構(gòu),分別從準(zhǔn)備、運(yùn)算到生成階段研究其中的風(fēng)險(xiǎn)問(wèn)題,進(jìn)而采用相應(yīng)措施,如采用技管結(jié)合糾正生成式人工智能在運(yùn)算階段的算法歧視風(fēng)險(xiǎn)。⑨本文認(rèn)為還可從內(nèi)外部視角展開(kāi)分析,內(nèi)部挑戰(zhàn)是模型自身存在的挑戰(zhàn),包括輸入質(zhì)量問(wèn)題、處理過(guò)程問(wèn)題、輸出質(zhì)量問(wèn)題;外部挑戰(zhàn)則是來(lái)自非模型自身的挑戰(zhàn),包括不當(dāng)利用風(fēng)險(xiǎn)以及法律監(jiān)管風(fēng)險(xiǎn)。

輸入質(zhì)量問(wèn)題:人工智能由算法、算力和數(shù)據(jù)要素組成,其中數(shù)據(jù)是人工智能的基礎(chǔ),在一定程度上決定著其輸出的準(zhǔn)確性與可靠性。生成式人工智能系人工智能的一種,故其輸出(生成的內(nèi)容)同樣會(huì)受到數(shù)據(jù)的數(shù)量和質(zhì)量影響。生成式人工智能必須用高質(zhì)量數(shù)據(jù)進(jìn)行訓(xùn)練,一旦數(shù)據(jù)集被污染或篡改,訓(xùn)練出的生成式人工智能便可能損害用戶(hù)基本權(quán)利、知識(shí)產(chǎn)權(quán)、個(gè)人隱私和信息數(shù)據(jù)權(quán),甚至產(chǎn)生社會(huì)偏見(jiàn)。

處理過(guò)程問(wèn)題:除數(shù)據(jù)外,訓(xùn)練時(shí)使用的算法模型同樣會(huì)影響人工智能的輸出結(jié)果。如果將人工智能的訓(xùn)練看作一場(chǎng)料理,訓(xùn)練數(shù)據(jù)是以“材料”的角色影響著最終料理的質(zhì)量,而算法模型則是以“菜譜”的角色發(fā)揮著自身作用,兩者缺一不可。一旦選用的算法模型存在問(wèn)題或與預(yù)期目的不一致,即便輸入再多、再好的數(shù)據(jù)也無(wú)法得到表現(xiàn)良好的人工智能系統(tǒng)。由機(jī)器學(xué)習(xí)算法和訓(xùn)練數(shù)據(jù)所引發(fā)的人工智能歧視和偏見(jiàn)問(wèn)題,統(tǒng)稱(chēng)為先行存在的算法偏見(jiàn),與新知識(shí)、新業(yè)態(tài)、新場(chǎng)景出現(xiàn)后引發(fā)的突發(fā)性算法偏見(jiàn)相對(duì)應(yīng)。技術(shù)更迭并未杜絕虛假生成問(wèn)題,只是將其進(jìn)行了包裝和掩飾,所以生成式人工智能會(huì)經(jīng)常出現(xiàn)突發(fā)性算法偏見(jiàn),進(jìn)一步增加了使用風(fēng)險(xiǎn)和治理難度,因而需要更為精準(zhǔn)的防護(hù)措施。

輸出質(zhì)量問(wèn)題:事實(shí)上,風(fēng)險(xiǎn)本質(zhì)上源于人們對(duì)事物認(rèn)知和控制能力不夠,無(wú)法在問(wèn)題萌芽甚至爆發(fā)前及時(shí)解決。從該角度來(lái)講,技術(shù)的可控程度與其風(fēng)險(xiǎn)高低是成反比的,技術(shù)越難控制則風(fēng)險(xiǎn)越高。大語(yǔ)言模型和思維鏈在賦予生成式人工智能邏輯推導(dǎo)能力的同時(shí),也使得其輸出內(nèi)容越來(lái)越難以預(yù)測(cè),換言之,生成式人工智能的可控程度較低,具有較高的潛在風(fēng)險(xiǎn)。比如,由于社會(huì)文化差異,生成式人工智能的輸出在一種文化背景下可能是合適的,但在另一種文化環(huán)境下卻是冒犯性的。人類(lèi)能辨析此類(lèi)區(qū)別,但生成式人工智能可能因缺少文化方面的前置設(shè)計(jì)而無(wú)法區(qū)分文化的細(xì)微差別,在無(wú)意中產(chǎn)生不恰當(dāng)?shù)膬?nèi)容。

不當(dāng)利用風(fēng)險(xiǎn):生成式人工智能在具備高智能的同時(shí),使用的難度和成本較低,這就為部分人員利用其強(qiáng)大力量從事非法活動(dòng)提供了可能空間,不當(dāng)利用風(fēng)險(xiǎn)由此產(chǎn)生。我國(guó)教育部起草的《中華人民共和國(guó)學(xué)位法(草案)》中對(duì)利用人工智能代寫(xiě)學(xué)位論文等行為及其處理作出明確規(guī)定。OpenAI公司稱(chēng)其正在向ChatGPT進(jìn)行敏感詞訓(xùn)練,當(dāng)用戶(hù)的提問(wèn)明顯違反已嵌入的倫理和立法時(shí),ChatGPT會(huì)拒絕回答。即便如此,部分人員仍然能夠繞過(guò)ChatGPT預(yù)先設(shè)置的“防火墻”,指示其生成非法內(nèi)容或完成非法操作,不當(dāng)利用風(fēng)險(xiǎn)未得到有效遏制。長(zhǎng)此以往,生成式人工智能可能引發(fā)社會(huì)信任危機(jī),使社會(huì)民眾陷入真假難辨、人人自危的困境,最終造成“真相的終結(jié)”,使人類(lèi)社會(huì)進(jìn)入“后真相時(shí)代”。⑩

法律監(jiān)管風(fēng)險(xiǎn):生成式人工智能內(nèi)部的輸入質(zhì)量問(wèn)題、處理過(guò)程問(wèn)題和輸出質(zhì)量問(wèn)題,以及外部的不當(dāng)利用風(fēng)險(xiǎn)共同將其監(jiān)管難度推向新的高峰,造成了監(jiān)管失效的法律風(fēng)險(xiǎn)。生成式人工智能的法律風(fēng)險(xiǎn)不局限于某一特定領(lǐng)域,而是橫貫多個(gè)領(lǐng)域,需要多個(gè)部門(mén)的協(xié)同治理。生成式人工智能的使用條款往往缺乏對(duì)用戶(hù)交互數(shù)據(jù)的授權(quán)處理,可能會(huì)引發(fā)個(gè)人隱私和國(guó)家安全問(wèn)題,因?yàn)榇笮推髽I(yè)中的部分?jǐn)?shù)據(jù)已經(jīng)具有了公共屬性,一旦出現(xiàn)泄露事件不僅會(huì)損害企業(yè)利益,更可能對(duì)國(guó)家安全造成威脅。除此之外,生成式人工智能決策過(guò)程不夠透明的問(wèn)題,也會(huì)對(duì)法律監(jiān)管造成影響,甚至成為監(jiān)管機(jī)關(guān)禁止其在特定領(lǐng)域部署的決定性理由。

解決方案:尋求多維平衡

面對(duì)生成式人工智能的巨大應(yīng)用價(jià)值和內(nèi)外部的風(fēng)險(xiǎn)挑戰(zhàn),我們需要作出合理抉擇。目前,世界各國(guó)雖然對(duì)生成式人工智能的安全性有所質(zhì)疑,但一致認(rèn)可其在國(guó)際競(jìng)爭(zhēng)、經(jīng)濟(jì)發(fā)展、數(shù)字政府建設(shè)等方面的應(yīng)用潛力,通過(guò)制定相關(guān)政策和法規(guī)嘗試處理好安全與發(fā)展、技術(shù)創(chuàng)新與公共利益之間的關(guān)系,為生成式人工智能的使用奠定前提和保障。我國(guó)亦不例外。從《暫行辦法》第1條規(guī)定看,該法制定目的正是“為了促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國(guó)家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益”。第3條更是明確指出立法者對(duì)于生成式人工智能治理的總體態(tài)度,即“堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則”。事實(shí)上,透過(guò)該原則便可發(fā)現(xiàn)當(dāng)前適合我國(guó)國(guó)情的解決方案,即尋求生成式人工智能治理的多維平衡。

首先,應(yīng)當(dāng)平衡安全和發(fā)展的關(guān)系。在總體國(guó)家安全觀(guān)下,安全是發(fā)展的前提,發(fā)展是安全的保障,不發(fā)展就是最大的不安全。我國(guó)必須積極發(fā)展生成式人工智能等現(xiàn)代科技手段促進(jìn)經(jīng)濟(jì)發(fā)展和社會(huì)進(jìn)步,不斷增強(qiáng)我國(guó)國(guó)際競(jìng)爭(zhēng)力。《暫行辦法》第3條指出,“對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管”。關(guān)于具體的措施,《暫行辦法》也給出方案:第5條和第6條明確了鼓勵(lì)發(fā)展的方向和內(nèi)容,如支持行業(yè)組織、企業(yè)、教育和科研機(jī)構(gòu)、公共文化機(jī)構(gòu)、有關(guān)專(zhuān)業(yè)機(jī)構(gòu)等在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應(yīng)用、風(fēng)險(xiǎn)防范等方面開(kāi)展協(xié)作;第7條和第8條分別從預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理和數(shù)據(jù)標(biāo)注對(duì)生成式人工智能的安全提出了要求,如生成式人工智能服務(wù)提供者應(yīng)當(dāng)使用具有合法來(lái)源的數(shù)據(jù)和基礎(chǔ)模型,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán)等。

其次,應(yīng)當(dāng)平衡技術(shù)創(chuàng)新和技術(shù)治理的關(guān)系。在采取措施加快生成式人工智能創(chuàng)新發(fā)展的同時(shí),也要認(rèn)識(shí)到其所帶來(lái)的內(nèi)外部風(fēng)險(xiǎn)挑戰(zhàn),相應(yīng)地進(jìn)行治理。簡(jiǎn)言之,應(yīng)當(dāng)在創(chuàng)新中治理,在治理中創(chuàng)新,保證技術(shù)創(chuàng)新在法治軌道上運(yùn)行。為此,一方面,發(fā)揮政策引領(lǐng)經(jīng)濟(jì)社會(huì)發(fā)展的作用,通過(guò)簡(jiǎn)化行政許可、減少稅收等途徑積極鼓勵(lì)企業(yè)進(jìn)行技術(shù)創(chuàng)新,同時(shí)引導(dǎo)企業(yè)利用自身發(fā)展推動(dòng)經(jīng)濟(jì)社會(huì)發(fā)展,對(duì)其正當(dāng)權(quán)益通過(guò)立法的形式予以確認(rèn);另一方面,堅(jiān)守依法治理底線(xiàn),對(duì)于企業(yè)可能的違規(guī)違法行為予以及時(shí)規(guī)范和處理。具體而言,根據(jù)《暫行辦法》第19條之規(guī)定,有關(guān)主管部門(mén)依據(jù)職責(zé)對(duì)生成式人工智能服務(wù)開(kāi)展監(jiān)督檢查,提供者應(yīng)當(dāng)依法予以配合;對(duì)于生成式人工智能提供者違反《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律法規(guī)的行為,予以罰款、責(zé)令停止提供服務(wù)、追究刑事責(zé)任等相應(yīng)處罰;如果現(xiàn)有法律法規(guī)無(wú)法有效規(guī)范技術(shù)發(fā)展的新業(yè)態(tài),可先由主管部門(mén)予以警告、通報(bào)批評(píng),責(zé)令限期改正,之后及時(shí)進(jìn)行立法(需要考慮特殊立法與一般立法、國(guó)家立法與地方立法的辯證關(guān)系),確保有法可依、依法行政。

最后,應(yīng)當(dāng)平衡企業(yè)合規(guī)義務(wù)和企業(yè)負(fù)擔(dān)能力的關(guān)系。生成式人工智能的有效治理,需要開(kāi)展模型訓(xùn)練、提供生成服務(wù)的企業(yè)承擔(dān)相應(yīng)的合規(guī)義務(wù),但此種義務(wù)必須是適當(dāng)?shù)模粦?yīng)超過(guò)企業(yè)的負(fù)擔(dān)能力。對(duì)此,可從《暫行辦法》的相關(guān)規(guī)定中尋得規(guī)范支撐:其一,第3條要求對(duì)生成式人工智能服務(wù)進(jìn)行分類(lèi)分級(jí)監(jiān)管,言下之意就是要依據(jù)具體風(fēng)險(xiǎn)大小進(jìn)行治理,對(duì)在不同領(lǐng)域提供不同生成式人工智能義務(wù)的企業(yè)提出有程度差別的合規(guī)義務(wù),這一點(diǎn)與《人工智能法案》基于風(fēng)險(xiǎn)的分級(jí)監(jiān)管頗為相似;其二,與原先征求意見(jiàn)稿相比,第7條和第8條明顯降低了企業(yè)研發(fā)、訓(xùn)練生成式人工智能的合規(guī)要求,如原有第7條第(4)項(xiàng)“能夠保證數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀(guān)性、多樣性”改為“采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀(guān)性、多樣性”,原有第8條“抽樣核驗(yàn)標(biāo)注內(nèi)容的正確性”改為“抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性”;其三,第9條和第14條通過(guò)重新分配服務(wù)提供者與用戶(hù)的權(quán)利義務(wù),給予了提供者更為靈活的合規(guī)空間,以增強(qiáng)其主動(dòng)合規(guī)的意愿。例如,將“內(nèi)容生產(chǎn)者責(zé)任”改為“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任”,使提供服務(wù)的企業(yè)不必為用戶(hù)惡意濫用生成式人工智能生成的非法內(nèi)容承擔(dān)責(zé)任。

生成式人工智能技術(shù)已經(jīng)在商業(yè)貿(mào)易、新聞傳播等多行業(yè)掀起巨大波瀾,如何進(jìn)行有效監(jiān)管使其服務(wù)于人類(lèi)社會(huì)是各國(guó)應(yīng)當(dāng)長(zhǎng)期思考和解決的現(xiàn)實(shí)命題。不同國(guó)家選擇的人工智能監(jiān)管模式反映著特定的社會(huì)價(jià)值觀(guān)和國(guó)家優(yōu)先事項(xiàng),這些不同的要求可能相互沖突,如注重保障用戶(hù)隱私和促進(jìn)技術(shù)創(chuàng)新,因而造成了更為復(fù)雜的監(jiān)管環(huán)境。歐盟的“安全優(yōu)先,兼顧公平”和美國(guó)的“強(qiáng)調(diào)自我監(jiān)管,支持技術(shù)創(chuàng)新”雖然有諸多不同之處,但也存在著共識(shí)部分,或多或少能促進(jìn)生成式人工智能的技術(shù)創(chuàng)新、安全使用與依法治理。同時(shí),透明度和可解釋性將是遵守新興法規(guī)和培養(yǎng)對(duì)生成式人工智能技術(shù)信任的關(guān)鍵所在。歐美立法動(dòng)向也提醒我國(guó)要盡快進(jìn)行國(guó)家層面的人工智能立法,確定人工智能治理的基本原則,以及風(fēng)險(xiǎn)管理制度、主體責(zé)任分配、法律責(zé)任等內(nèi)容,統(tǒng)籌全國(guó)的治理布局,還要充分發(fā)揮地方積極性,通過(guò)地方立法先行先試,避免無(wú)法可用的同時(shí)為國(guó)家層面的人工智能立法積累經(jīng)驗(yàn)。

(作者為浙江大學(xué)光華法學(xué)院教授、博導(dǎo))

【注:本文系國(guó)家社科基金重大項(xiàng)目“建立健全我國(guó)網(wǎng)絡(luò)綜合治理體系研究”(項(xiàng)目編號(hào):20ZDA062)階段性成果】

【注釋】

①Ouyang L,Wu J,Jiang X,et al."Training language models to follow instructions with human feedback",Advances in Neural Information Processing Systems,2022(35),pp.27730-27744.

②Natali Helberger,Nicholas Diakopoulos."ChatGPT and the AI Act",Internet Policy Review,2023,12(1).

③曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對(duì)我國(guó)的啟示——以〈人工智能法案〉為分析對(duì)象》,《電子政務(wù)》,2022年第9期。

④The White House,"Blueprint for an AI Bill of Rights",October 2022.

⑤Friedler, Sorelle, Suresh Venkatasubramanian, Alex Engler,"How California and other states are tackling AI legislation",Brookings,March 2023.

⑥Müge Fazlioglu."US federal AI governance: Laws, policies and strategies",International Association of Privacy Professionals,June 2023.

⑦程樂(lè):《人工智能發(fā)展趨勢(shì)研判與規(guī)范引導(dǎo)思路》,《國(guó)家治理》,2023年第6期。

⑧程樂(lè):《生成式人工智能的法律規(guī)制——以ChatGPT為視角》,《政法論叢》,2023年第4期。

⑨劉艷紅:《生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例》,《東方法學(xué)》,2023年第4期。

⑩張廣勝:《生成式人工智能的國(guó)家安全風(fēng)險(xiǎn)及其對(duì)策》,《人民論壇·學(xué)術(shù)前沿》,2023年第7期。

責(zé)編/靳佳 美編/王夢(mèng)雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:孫渴]