生成式人工智能的治理是今年兩會上代表委員們熱議的一個重要話題。生成式人工智能既帶來了人工智能技術(shù)的“奇點時刻”,也帶來了人工智能治理的“關(guān)鍵時刻”。生成式人工智能技術(shù)是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。加快對生成式人工智能領(lǐng)域的立法,既是防范生成式人工智能服務(wù)風(fēng)險的現(xiàn)實需要,也是促進(jìn)生成式人工智能健康發(fā)展的長遠(yuǎn)需要。前不久,歐洲議會、歐盟委員會和27個成員國的談判代表就《人工智能法案》達(dá)成協(xié)議,這成為全球首部人工智能領(lǐng)域的全面監(jiān)管法規(guī),為用法律監(jiān)督ChatGPT等生成式人工智能服務(wù)的發(fā)展提供了一定借鑒。在該領(lǐng)域,我國也進(jìn)行了不少探索,2023年已正式施行的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)從價值規(guī)范、行為規(guī)制和過程監(jiān)管等方面對生成式人工智能加強了治理。隨著技術(shù)的廣泛應(yīng)用和不斷演進(jìn),生成式人工智能服務(wù)的開發(fā)者、提供者、使用者、監(jiān)管者在未來實踐中都還將面臨不少的法律挑戰(zhàn),法律上也仍有諸多可填補的空間。這些也是我國下一步針對生成式人工智能立法立規(guī)應(yīng)重點關(guān)注的問題。
首先,生成式人工智能生成內(nèi)容的準(zhǔn)確性和可靠性該如何認(rèn)定是一個突出的問題。人工智能準(zhǔn)確性不僅是生成式人工智能部署和運行的重要底線,也是構(gòu)建可信賴人工智能的重要前提。以目前生成式人工智能的技術(shù)水平,其技術(shù)和應(yīng)用局限仍非常明顯,存在生成內(nèi)容準(zhǔn)確率不高、可信性不強、文本生搬硬湊、缺乏邏輯性等問題,有時甚至出現(xiàn)一些脫離現(xiàn)實、啼笑皆非的低級錯誤。對此,《辦法》要求,提供和使用生成式人工智能服務(wù)應(yīng)當(dāng)“提高生成內(nèi)容的準(zhǔn)確性和可靠性”。要落實這一要求,尚需進(jìn)一步的法律規(guī)則細(xì)化。一方面,要求服務(wù)提供者使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型;另一方面,要求其采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性。同時,應(yīng)正視人工智能的風(fēng)險閾值,繼續(xù)深入探索同生成式人工智能技術(shù)特性與產(chǎn)業(yè)特點相匹配的數(shù)據(jù)準(zhǔn)確性、算法模型準(zhǔn)確性、輸出準(zhǔn)確性和解釋準(zhǔn)確性標(biāo)準(zhǔn),構(gòu)建科學(xué)精準(zhǔn)的風(fēng)險治理框架。
其次,生成式人工智能帶來了個人信息保護(hù)的相關(guān)問題。大數(shù)據(jù)和人工智能技術(shù)的結(jié)合,改變了以往單一的個人信息收集和處理方式。生成式人工智能通常需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,并且,隨著生成式人工智能的廣泛使用,個人數(shù)據(jù)的收集、存儲和處理變得非常普遍,加強數(shù)據(jù)管理和隱私保護(hù)至關(guān)重要,以盡量保證生成式人工智能服務(wù)提供的透明性和可控性。一方面,生成式人工智能的開發(fā)應(yīng)該時刻注重確保個人對自身數(shù)據(jù)的控制權(quán)。根據(jù)《辦法》,生成式人工智能服務(wù)的提供者應(yīng)當(dāng)依法履行對用戶個人信息保護(hù)義務(wù)。涉及個人信息的,應(yīng)當(dāng)取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形。其實這項義務(wù)并非新增,而是個人信息保護(hù)法等法律在生成式人工智能領(lǐng)域的細(xì)化。但是,這些規(guī)定大都有賴于產(chǎn)品研發(fā)者、服務(wù)提供者進(jìn)行自我審查和自我履行,還缺乏獨立第三方對算法進(jìn)行有效論證和監(jiān)管的具體設(shè)計,需要適時填補這一空白,細(xì)化數(shù)據(jù)采集、存儲、使用和共享的規(guī)則,確保數(shù)據(jù)的合法性與安全性。
再次,生成式人工智能面臨知識產(chǎn)權(quán)認(rèn)定的問題。一方面,生成式人工智能運用未被授權(quán)的數(shù)據(jù)生成的內(nèi)容可能被指控侵犯知識產(chǎn)權(quán);另一方面,其生成的獨創(chuàng)性內(nèi)容是否應(yīng)該受到知識產(chǎn)權(quán)保護(hù)?又該如何保護(hù)?《辦法》堅持尊重知識產(chǎn)權(quán)的導(dǎo)向,宏觀地作出規(guī)定:“涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán)。”面對生成式人工智能涉嫌侵權(quán)的行為,用戶可以依據(jù)相關(guān)法律規(guī)定對服務(wù)開發(fā)者和提供者提起訴訟,進(jìn)行維權(quán)。根據(jù)我國著作權(quán)法的規(guī)定,享有著作權(quán)的作者,主要包括創(chuàng)作作品的自然人,和其他依照本法享有著作權(quán)的法人或者非法人組織。只有“人”能夠成為知識產(chǎn)權(quán)法律關(guān)系的主體,可以對智力成果進(jìn)行創(chuàng)作并享有權(quán)利,而人工智能模型不具備自由意志,不是法律上的主體,不能成為我國著作權(quán)法上的“作者”,且人工智能的設(shè)計者、研發(fā)者、投資者、管理者、實際操控者等在作品的創(chuàng)作過程中均發(fā)揮著重要作用,權(quán)利的歸屬如何,目前也尚無明確規(guī)定,如何進(jìn)行產(chǎn)權(quán)保護(hù),還需要相關(guān)法律法規(guī)加緊跟上。
最后,生成式人工智能還面臨法律監(jiān)管不充分的問題。對于具有超大規(guī)模、千億參數(shù)量、極易擴(kuò)展性和大量應(yīng)用場景的生成式人工智能而言,以事后啟動、分散推進(jìn)為特征的傳統(tǒng)監(jiān)管面臨應(yīng)對遲滯、彈性不足、監(jiān)管尺度不清、跨域協(xié)調(diào)成本高企的挑戰(zhàn)。人工智能生成內(nèi)容技術(shù)因其快速反應(yīng)能力、豐富知識輸出、多元應(yīng)用場景等,對監(jiān)管者的監(jiān)管能力也提出極大挑戰(zhàn)。因此,應(yīng)積極打造“以AI治理AI、以算法規(guī)制算法”的智能監(jiān)管體系,深入探究技術(shù)模型在人工智能監(jiān)管層面的有效性,將倫理規(guī)范和合規(guī)要點轉(zhuǎn)化為程序語言,以內(nèi)部倫理技術(shù)約束嵌入人工智能設(shè)計和運行全過程,探索智慧化監(jiān)管模式。同時,充分吸納專業(yè)技術(shù)人才充實監(jiān)管隊伍,轉(zhuǎn)變監(jiān)管思維,創(chuàng)建監(jiān)管機(jī)構(gòu)間高效的信息共享機(jī)制,提升與人工智能技術(shù)創(chuàng)新相匹配、相適應(yīng)的應(yīng)對能力和管理能力,確保技術(shù)的研發(fā)與使用符合法律法規(guī)和道德規(guī)范。(胡建淼專家工作室供稿)