青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁 | 網(wǎng)站地圖

人民論壇網(wǎng)·國家治理網(wǎng)> 前沿理論> 正文

人工智能價(jià)值對齊困難及其實(shí)現(xiàn)路徑探析

摘 要:迅猛發(fā)展的人工智能技術(shù)正在快速融入當(dāng)今社會(huì)生產(chǎn)與生活的眾多領(lǐng)域,進(jìn)而催生了價(jià)值對齊難題。如何促進(jìn)科技向善,確保人工智能技術(shù)與人類價(jià)值觀念、倫理原則和真實(shí)意圖相一致,是科技倫理治理的一個(gè)重要目標(biāo)和前沿議題。人們價(jià)值觀念、現(xiàn)實(shí)需求以及所處地位境遇等方面的差異性和動(dòng)態(tài)性,導(dǎo)致對待人工智能的態(tài)度和價(jià)值訴求不盡相同,這是實(shí)現(xiàn)價(jià)值完全對齊的困難之源;同時(shí),眾多差異化價(jià)值訴求中也包含著諸多相同或相似的內(nèi)容,又存在達(dá)成“妥協(xié)”的可能,這是實(shí)現(xiàn)價(jià)值部分對齊的現(xiàn)實(shí)基礎(chǔ)。人工智能價(jià)值對齊是一個(gè)包含“一次對齊”和“二次對齊”,從“部分對齊”趨向“完全對齊”的演進(jìn)過程,也是當(dāng)今科技倫理治理的重要戰(zhàn)線,離不開政府、產(chǎn)業(yè)界、科技界、理論界乃至社會(huì)各界的互動(dòng)協(xié)同和相向而行。

關(guān)鍵詞:人工智能 價(jià)值對齊 科技倫理治理 實(shí)現(xiàn)路徑

【中圖分類號(hào)】G206.2 【文獻(xiàn)標(biāo)識(shí)碼】A

作為人工智能(Artificial Intelligence,簡稱AI)技術(shù)的核心,大模型強(qiáng)大的數(shù)據(jù)處理和學(xué)習(xí)能力引發(fā)了當(dāng)今諸多社會(huì)領(lǐng)域的變革,通用人工智能(Artificial General Intelligence,簡稱AGI)曙光初現(xiàn),將人類帶入了數(shù)智化時(shí)代。以DeepSeek、ChatGPT為代表的生成式人工智能迅速崛起并得到推廣應(yīng)用,它不僅遵循“智能邏輯”,對社會(huì)生產(chǎn)、生活帶來顛覆性和革命性的影響,而且從根本上重塑人本身。[1]如何確保人工智能系統(tǒng)行為與人類價(jià)值觀念、倫理原則和真實(shí)意圖相一致,避免產(chǎn)生有害或誤導(dǎo)性輸出,即實(shí)現(xiàn)與人類的價(jià)值對齊,已成為政策制定者和學(xué)術(shù)界、產(chǎn)業(yè)界關(guān)注的焦點(diǎn)和亟待解決的問題。價(jià)值對齊既是技術(shù)進(jìn)步的內(nèi)在要求,也是確保人工智能技術(shù)安全、可靠、可控的關(guān)鍵所在。本文擬就人工智能價(jià)值對齊的哲學(xué)淵源、面臨的困難及其實(shí)現(xiàn)路徑展開初步探討,為人工智能的持續(xù)健康發(fā)展提供有益思考。

價(jià)值對齊概念及其演變

盡管“價(jià)值對齊”是一個(gè)新概念和新議題,但對于機(jī)器人威脅、機(jī)器人要符合人類價(jià)值導(dǎo)向等問題的探究已有較長歷史。艾薩克·阿西莫夫(Isaac Asimov)1942年提出的“機(jī)器人三定律”,[2]可視為最早的人工智能價(jià)值原則,在一定程度上體現(xiàn)了“人工智能要符合人類價(jià)值觀”這一基本導(dǎo)向。1960年,“控制論之父”諾伯特·維納(Norbert Wiener)討論了限制機(jī)器固有目的的必要性,強(qiáng)調(diào)機(jī)器的發(fā)展需要與其性能發(fā)展同步。他指出,“我們最好確保機(jī)器的用途是我們真正想要的用途”[3],確保機(jī)器執(zhí)行的目標(biāo)符合人類的真正需求。這被認(rèn)為是對價(jià)值一致性的最早描述之一,標(biāo)志著機(jī)器倫理和風(fēng)險(xiǎn)防范正式進(jìn)入科學(xué)家視野,并在多學(xué)科領(lǐng)域蓬勃發(fā)展。[4]

2016年,哈德菲里德·邁內(nèi)爾(Hadfield-Menell)等人明確提出了“價(jià)值對齊”(Value Alignment)的概念和問題,即“確保人工智能系統(tǒng)在追求其特定目標(biāo)的過程中,能夠最大限度地符合人類用戶的真實(shí)意圖。”[5]此后,價(jià)值對齊問題逐漸成為人工智能領(lǐng)域的重要議題,特別是隨著生成式人工智能的快速發(fā)展,大模型經(jīng)常輸出與用戶意圖及人類價(jià)值觀相悖的內(nèi)容,甚至對人類核心價(jià)值觀帶來影響和沖擊。在此背景下,確保人工智能模型能夠輸出符合人類價(jià)值體系的“人工智能價(jià)值對齊”問題成為當(dāng)下人工智能領(lǐng)域的關(guān)注焦點(diǎn)。2017年,由生命未來研究所(Future of Life Institute,F(xiàn)LI)協(xié)調(diào)制定的具有廣泛影響力的阿西洛馬人工智能原則(Asilomar AI Principles),明確將“價(jià)值對齊”作為原則之一,提出“對于高度自主人工智能系統(tǒng)的設(shè)計(jì),應(yīng)確保其目標(biāo)和行為在整個(gè)運(yùn)行過程中與人類價(jià)值觀相一致。”迪格納姆(Dignum)也明確提出,“人工智能應(yīng)該以人類福祉為中心,并與社會(huì)價(jià)值觀和倫理原則保持一致。”[6]拉塞爾(Russell)和諾維格(Norvig)強(qiáng)調(diào),“我們需要發(fā)展可證明符合人類價(jià)值觀的智能,而不僅僅是追求純粹的智能。”[7]產(chǎn)生這一問題的根源在于:雖然人工智能系統(tǒng)能夠按照人們給定的目標(biāo)行事,并大幅提升生產(chǎn)效率,但很難同步準(zhǔn)確遵循人類重視和關(guān)心的安全性或道德約束等社會(huì)文化規(guī)范,時(shí)常出現(xiàn)不符合人類主流價(jià)值觀甚至危害人類生產(chǎn)與發(fā)展的多種情況。人工智能與其他任何“屬人的”科學(xué)技術(shù)一樣,都植根于人類實(shí)踐活動(dòng)的需要,都要服務(wù)于人的解放、自由全面發(fā)展的價(jià)值目標(biāo)[8],也必須與人類的價(jià)值觀對齊。這就像人類幼童經(jīng)歷的社會(huì)化過程一樣,不同幼童的成長和輸出機(jī)理猶如一個(gè)“黑箱”,家長和老師只能通過結(jié)果來判斷教育是否有效和妥當(dāng)。幼童是否應(yīng)與成人社會(huì)主流價(jià)值對齊?是否能夠?qū)R?這在本質(zhì)上雖然與人工智能價(jià)值對齊是同一命題,但人類的答案天然是肯定的——盡管個(gè)體社會(huì)化的結(jié)果千差萬別,但無論是知識(shí)還是價(jià)值觀,對齊都是現(xiàn)實(shí)的選擇。

同樣,從技術(shù)視角來看,基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)、“憲法性人工智能”模式、對訓(xùn)練數(shù)據(jù)的有效干預(yù)以及對抗測試等技術(shù),在實(shí)現(xiàn)價(jià)值對齊過程中發(fā)揮了一定作用,但人工智能系統(tǒng)的運(yùn)行和內(nèi)容生成過程仍屬于“黑箱”。人類社會(huì)對人工智能系統(tǒng)的底層邏輯和運(yùn)作機(jī)理仍缺乏深入而充分的認(rèn)識(shí),以大數(shù)據(jù)和深度學(xué)習(xí)為基礎(chǔ)的人工智能系統(tǒng)出現(xiàn)了不可解釋和不可理解難題,甚至還出現(xiàn)神來之筆的“幻覺”。這就導(dǎo)致從技術(shù)層面實(shí)現(xiàn)價(jià)值對齊的諸多努力往往低效和存在局限。

追根溯源,這些技術(shù)路徑都離不開設(shè)計(jì)人員、研發(fā)人員和使用人員的認(rèn)知和價(jià)值評(píng)判。面對人工智能技術(shù)不可解釋和不可理解難題的困擾,從技術(shù)上實(shí)現(xiàn)價(jià)值對齊路徑的實(shí)際效果有限,有“治標(biāo)不治本”之嫌。這里需要指出的是,從表面上看,雖然實(shí)現(xiàn)價(jià)值對齊最終都可以歸約為一個(gè)“如何做”的技術(shù)問題或策略問題,但從本質(zhì)上講首先需要澄清“是什么”和“為什么”的價(jià)值論問題,勢必關(guān)涉人們對人工智能價(jià)值本身及其對齊訴求的理解與追溯。只有在澄清價(jià)值對齊本質(zhì)的基礎(chǔ)上,才能更好地探尋實(shí)現(xiàn)價(jià)值對齊的路徑與方法。事實(shí)上,從語義學(xué)視角來看,“價(jià)值對齊”中的“價(jià)值”意指人們的價(jià)值觀、價(jià)值判斷和價(jià)值標(biāo)準(zhǔn)等。所謂“對齊”就是要求內(nèi)置或固化于人工智能系統(tǒng)中的價(jià)值意向、代碼及其標(biāo)準(zhǔn)等始終與人類保持一致, 人工智能系統(tǒng)生成內(nèi)容的價(jià)值觀與人類價(jià)值觀相一致。[9]這里我們需要追問的是:人類的價(jià)值觀、價(jià)值判斷或價(jià)值標(biāo)準(zhǔn)本身是否就是一致的和穩(wěn)定的?如果人類的價(jià)值觀、價(jià)值判斷或價(jià)值標(biāo)準(zhǔn)本身就不一致或是處在頻繁變動(dòng)中,那么所謂的“價(jià)值對齊”是與哪些人或哪個(gè)階段的價(jià)值觀、價(jià)值判斷或價(jià)值標(biāo)準(zhǔn)對齊呢?這種對齊又是何種意義上或程度上的對齊?其合理性、合法性何在?

價(jià)值論研究表明,價(jià)值性是人的基本屬性,具有較強(qiáng)的主觀性、動(dòng)態(tài)性、差異性和復(fù)雜性,受到歷史、地域、文化、族群、階層、教育程度、工作崗位、問題情境等多重因素的復(fù)雜影響。在社會(huì)實(shí)踐活動(dòng)中,不同語境下人們的訴求或意愿不同,他們的價(jià)值觀念、價(jià)值判斷、價(jià)值標(biāo)準(zhǔn)和行為方式也往往各不相同,甚至同一個(gè)人在不同時(shí)空場景下對于同一個(gè)事物的價(jià)值判斷也是有差異的,從而演變?yōu)榇呱姸嗌鐣?huì)矛盾或沖突的價(jià)值論根源。同樣,人們在人工智能系統(tǒng)的目標(biāo)、功能、算法等方面的訴求及其程度也各不相同,因而在價(jià)值判斷和價(jià)值標(biāo)準(zhǔn)問題上往往難于達(dá)成共識(shí),所謂的“價(jià)值完全(或絕對)對齊”訴求難以順利實(shí)現(xiàn)。這就是由人們價(jià)值觀上的分歧或?qū)α⒍l(fā)的對齊困難。

技術(shù)的價(jià)值負(fù)載

技術(shù)就是為了滿足人們的種種需要而創(chuàng)造的工具、方法、流程及其知識(shí)體系,可理解為圍繞“如何有效地實(shí)現(xiàn)目的”的現(xiàn)實(shí)課題,人們后天不斷創(chuàng)造和應(yīng)用的目的性活動(dòng)序列、方式或機(jī)制。從石器時(shí)代的簡單工具到現(xiàn)代社會(huì)的空間站、互聯(lián)網(wǎng)、人工智能等復(fù)雜工具,技術(shù)上的每一次飛躍都是人類智慧與創(chuàng)造力的結(jié)晶。技術(shù)是價(jià)值中立的嗎?這是科學(xué)技術(shù)哲學(xué)中被經(jīng)常提及的一個(gè)重要話題,受到廣泛關(guān)注和討論。筆者持價(jià)值負(fù)載論立場,因?yàn)榧夹g(shù)是人類意向性的產(chǎn)物,它的創(chuàng)造與應(yīng)用并非孤立于社會(huì)之外,必然會(huì)受到特定歷史時(shí)期的社會(huì)文化、經(jīng)濟(jì)制度、政治環(huán)境等多重因素的影響,從而被注入研發(fā)者、使用者等多方的價(jià)值觀念或意識(shí)形態(tài)訴求,承載著豐富的價(jià)值內(nèi)涵,深刻地影響著人類社會(huì)的倫理觀念、經(jīng)濟(jì)結(jié)構(gòu)、文化形態(tài)乃至政治格局。

在價(jià)值負(fù)載論看來,技術(shù)性與價(jià)值性是人的基本屬性,技術(shù)并非價(jià)值中立,而是負(fù)載著倫理、道德、文化、經(jīng)濟(jì)等多重價(jià)值,體現(xiàn)在技術(shù)的設(shè)計(jì)、研發(fā)、應(yīng)用及其后果等各個(gè)環(huán)節(jié)。例如,一項(xiàng)旨在提高人類健康水平的醫(yī)療技術(shù)發(fā)明,其高昂的成本可能加劇社會(huì)不公平,還會(huì)加快老齡社會(huì)的來臨等;一項(xiàng)有助于環(huán)境保護(hù)的綠色技術(shù)的推廣應(yīng)用,可能引發(fā)就業(yè)結(jié)構(gòu)的變化和社會(huì)經(jīng)濟(jì)利益的重新分配等。因此,技術(shù)的價(jià)值負(fù)載是技術(shù)與社會(huì)互動(dòng)建構(gòu)的結(jié)果,可以從多個(gè)維度展開分析。

從倫理維度來看,技術(shù)是聯(lián)系研發(fā)者、生產(chǎn)者及其產(chǎn)業(yè)上下游、使用者、生態(tài)環(huán)境等多方的紐帶,其倫理價(jià)值負(fù)載最為直觀且引人關(guān)注。僅就當(dāng)代生物技術(shù)、基因編輯、人工智能等高新技術(shù)的快速發(fā)展而言,就催生了一系列復(fù)雜的倫理難題。例如,克隆人技術(shù)的倫理爭議、基因編輯嬰兒的道德邊界、自動(dòng)駕駛汽車交通事故的責(zé)任厘清等問題,都迫使人們必須重新審視技術(shù)的倫理界限。要求技術(shù)的發(fā)展應(yīng)當(dāng)尊重生命、維護(hù)人權(quán)、促進(jìn)公平正義,避免成為侵犯人權(quán)、加劇社會(huì)不公的工具。

從經(jīng)濟(jì)維度來看,技術(shù)是推動(dòng)經(jīng)濟(jì)發(fā)展的重要?jiǎng)恿Γ鋬r(jià)值負(fù)載也體現(xiàn)在對經(jīng)濟(jì)結(jié)構(gòu)的重塑和利益分配的影響上。一方面,技術(shù)創(chuàng)新能夠創(chuàng)造新的經(jīng)濟(jì)增長點(diǎn),提高生產(chǎn)效率,促進(jìn)產(chǎn)業(yè)升級(jí)。例如,綠色技術(shù)創(chuàng)新能夠促進(jìn)產(chǎn)業(yè)的生態(tài)化改造,節(jié)能降耗,推進(jìn)生態(tài)文明建設(shè)。另一方面,技術(shù)變革也可能導(dǎo)致傳統(tǒng)產(chǎn)業(yè)的衰落,引發(fā)失業(yè)潮,加劇貧富差距乃至社會(huì)動(dòng)蕩。因此,在推動(dòng)產(chǎn)業(yè)技術(shù)革新的同時(shí),還必須關(guān)注其經(jīng)濟(jì)社會(huì)影響,并及時(shí)采取有效措施,消解技術(shù)變革帶來的負(fù)面效應(yīng),實(shí)現(xiàn)經(jīng)濟(jì)社會(huì)乃至生態(tài)環(huán)境的持續(xù)健康發(fā)展。

從文化維度來看,技術(shù)既是物質(zhì)文明的產(chǎn)物,也是精神文化生活的重要載體。隨著互聯(lián)網(wǎng)、人工智能等高新技術(shù)的普及和全球化進(jìn)程的加快,技術(shù)正在以前所未有的速度重塑人們的思維方式、生產(chǎn)方式、生活方式和交往方式,進(jìn)而對傳統(tǒng)文化產(chǎn)生了深遠(yuǎn)影響。一方面,技術(shù)為文化傳播提供了更加便捷、高效的渠道,促進(jìn)了不同文化之間的交流與融合,展現(xiàn)出越來越強(qiáng)大的文化紐帶功能。另一方面,技術(shù)也可能導(dǎo)致文化同質(zhì)化、娛樂化以及文化沖突等新問題,威脅到文化的多樣性和獨(dú)特性。因此,在技術(shù)創(chuàng)新過程中,應(yīng)尊重和保護(hù)文化的多樣性,促進(jìn)文化的協(xié)調(diào)健康發(fā)展。

從政治維度來看,技術(shù)還負(fù)載著政治價(jià)值訴求,扮演著意識(shí)形態(tài)角色。在智能化時(shí)代,技術(shù)已成為國家競爭力的重要體現(xiàn),掌握核心技術(shù)是維護(hù)國家安全的關(guān)鍵環(huán)節(jié)。同時(shí),技術(shù)也成為政治斗爭的重要工具或手段,網(wǎng)絡(luò)攻擊、科技戰(zhàn)、信息戰(zhàn)、輿論戰(zhàn)、認(rèn)知戰(zhàn)等新型安全威脅,無一不是以新技術(shù)為載體或內(nèi)容的。因此,技術(shù)創(chuàng)新必須堅(jiān)持總體國家安全觀,服務(wù)于國家利益和人民福祉,加強(qiáng)技術(shù)創(chuàng)新和安全管理是維護(hù)國家安全和社會(huì)穩(wěn)定的重要基石。

以ChatGPT為例,自它推出以來,就不斷有靈魂拷問——ChatGPT是價(jià)值中立的嗎?雖然它標(biāo)榜中立,但大量研究和證據(jù)表明,ChatGPT的意識(shí)形態(tài)傾向和政治立場極其鮮明。事實(shí)上,不僅是ChatGPT,很多類似的大模型都存在較強(qiáng)的價(jià)值偏見。美國華盛頓大學(xué)和卡內(nèi)基梅隆大學(xué)研究團(tuán)隊(duì)的測試表明:人工智能語言模型包含不同的政治偏見,ChatGPT和GPT-4是最左翼的自由主義者,而Meta的LLaMA是最右翼的威權(quán)主義者;與GPT系列相比,谷歌發(fā)布的BERT及其變體模型在社交方面更為保守。此外,預(yù)訓(xùn)練語言模型中確實(shí)存在著強(qiáng)化預(yù)訓(xùn)練語料中的政治極化偏見,并將社會(huì)偏見傳播到仇恨言論預(yù)測和誤導(dǎo)信息檢測之中。[10]其實(shí),追求“中立”或“多樣性”本身也是一種價(jià)值對齊行為。概言之,承認(rèn)技術(shù)尤其是人工智能技術(shù)負(fù)載多重價(jià)值,既是實(shí)現(xiàn)價(jià)值對齊的基礎(chǔ)與前提,也是一個(gè)無法回避的現(xiàn)實(shí)問題。為此,應(yīng)具體分析不同人工智能大模型、用戶群體和應(yīng)用場景等條件下的復(fù)雜價(jià)值關(guān)系,在有關(guān)各方之間求取現(xiàn)階段的價(jià)值共識(shí),即最大的價(jià)值公約數(shù),進(jìn)而為實(shí)現(xiàn)價(jià)值部分(或相對)對齊創(chuàng)造條件。

實(shí)現(xiàn)價(jià)值對齊的技術(shù)路徑與社會(huì)機(jī)制

在人工智能研發(fā)實(shí)踐中,通過基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)、有效干預(yù)訓(xùn)練數(shù)據(jù)和對抗測試等技術(shù)方法,可實(shí)現(xiàn)人工智能價(jià)值的部分對齊。[11]這些方法在模型訓(xùn)練和優(yōu)化中扮演著不同的角色,有助于模型的行為與人類價(jià)值觀和期望保持一致。其中,基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)的基本思想是通過收集人類對模型輸出內(nèi)容的種種反饋,并以此構(gòu)建獎(jiǎng)勵(lì)信號(hào)來改進(jìn)和優(yōu)化人工智能模型的性能[12],有利于減少模型的偏見,增強(qiáng)其安全性,并顯著減少人工智能模型將來產(chǎn)生有害內(nèi)容的可能性。[13] “憲法性人工智能”模式由Anthropic團(tuán)隊(duì)提出,是在無人類反饋條件下完全基于模型訓(xùn)練途徑實(shí)現(xiàn)人工智能大模型的價(jià)值對齊。其基本思想是通過研發(fā)一個(gè)從屬的人工智能模型來評(píng)估主模型的輸出是否符合特定的原則或規(guī)范,并將評(píng)估結(jié)果用于優(yōu)化主模型,旨在將價(jià)值對齊從低效的“人類監(jiān)督”轉(zhuǎn)向更高效的“規(guī)?;詣?dòng)監(jiān)督”。鑒于人工智能大模型的很多問題(如虛假回答、偽造內(nèi)容、偏見、算法歧視等)來源于訓(xùn)練數(shù)據(jù),因此對訓(xùn)練數(shù)據(jù)進(jìn)行有效干預(yù)也是實(shí)現(xiàn)價(jià)值對齊的一條重要路徑。主要包括對訓(xùn)練數(shù)據(jù)進(jìn)行記錄以識(shí)別問題,通過人工或自動(dòng)化方式篩選、檢測以識(shí)別和消除有害偏見,構(gòu)建價(jià)值對齊的專門高質(zhì)量數(shù)據(jù)集等。“對抗測試(或紅隊(duì)測試)”是指在大模型發(fā)布之前,邀請內(nèi)部和外部的專業(yè)人員對該模型進(jìn)行多種多樣的全方位對抗性攻擊,以發(fā)現(xiàn)潛在問題并加以解決,以便在該模型推廣應(yīng)用之前彌補(bǔ)可能的缺陷或短板等。

盡管這些技術(shù)方法在實(shí)現(xiàn)人工智能價(jià)值對齊過程中存在著許多缺陷,但不可否認(rèn)的是他們確實(shí)也發(fā)揮了一定的積極作用。此外,社會(huì)機(jī)制的設(shè)計(jì)與建構(gòu)也同樣重要,使社會(huì)機(jī)制與技術(shù)手段匹配和協(xié)調(diào),將不斷提高對齊程度。在現(xiàn)實(shí)生活中,人們總是會(huì)遇到各種各樣的矛盾,求同存異、和而不同是社會(huì)發(fā)展的一種正常狀態(tài)。在人工智能系統(tǒng)評(píng)價(jià)上的種種分歧或矛盾也是類似的,既有對立性也有同一性。人們在人工智能系統(tǒng)價(jià)值訴求上的分歧,并不能抹殺和掩蓋其中所包含的諸多共識(shí)或共同的利益訴求,后者正是實(shí)現(xiàn)“價(jià)值部分(或相對)對齊”的基本前提和現(xiàn)實(shí)基礎(chǔ)。這也是學(xué)界廣泛討論和追求的普世價(jià)值、共識(shí)價(jià)值、共同價(jià)值、全球倫理的具體表現(xiàn)。[14]

從科技倫理治理實(shí)踐看,人工智能的價(jià)值對齊主要是在兩個(gè)層面或分兩個(gè)階段推進(jìn)的,即人工智能技術(shù)研發(fā)層面或階段和人工智能用戶層面或推廣應(yīng)用階段。在人工智能技術(shù)研發(fā)層面或階段,由于研發(fā)者對人工智能技術(shù)本身及其危害的認(rèn)識(shí)或預(yù)見比較深入細(xì)致,更容易快速達(dá)成共識(shí),可稱為內(nèi)部共識(shí)。這也是近年來人工智能領(lǐng)域之所以率先出臺(tái)人工智能技術(shù)標(biāo)準(zhǔn)、行業(yè)倫理規(guī)范的原因。[15] 然而,在人工智能用戶層面或推廣應(yīng)用階段,受人工智能技術(shù)門檻和社會(huì)分工的限制,社會(huì)大眾對人工智能技術(shù)本身及其危害知之甚少,往往需要經(jīng)歷一個(gè)較為漫長的認(rèn)識(shí)過程才能形成共識(shí),且彼此之間的認(rèn)知差異較大,可稱為外部共識(shí)。這就是人工智能價(jià)值判斷上的差異性。

一是研發(fā)階段的“一次對齊”。不難理解,在人工智能技術(shù)研發(fā)層面或階段,以人工智能系統(tǒng)的新功能和高效率為主要目標(biāo),以人工智能技術(shù)系統(tǒng)的設(shè)計(jì)和研制為核心任務(wù),技術(shù)人員之間彼此協(xié)作、頻繁互動(dòng)。這一階段的價(jià)值對齊以內(nèi)部共識(shí)為基礎(chǔ),以研發(fā)者認(rèn)同的法律和公序良俗為底線,以倫理秩序或道德原則為努力方向,賦予人工智能技術(shù)系統(tǒng)相關(guān)價(jià)值規(guī)范或評(píng)價(jià)標(biāo)準(zhǔn),可稱為“一次對齊”。該過程受制于人工智能技術(shù)的研發(fā)進(jìn)程。荷蘭學(xué)派的道德物化理論正是在這個(gè)意義上展開的。[16]在“一次對齊”階段,盡管研發(fā)者考慮了多種可能的使用場景及其用戶需求,但多屬理想化、類型化的虛擬情境,與實(shí)際應(yīng)用情況差距明顯,難免百密一疏,加之,研發(fā)者本身的認(rèn)知水平和價(jià)值訴求存在偏差,不可能包辦或完滿實(shí)現(xiàn)價(jià)值對齊任務(wù)。

二是應(yīng)用階段的“二次對齊”。在人工智能用戶層面或推廣應(yīng)用階段,多種多樣的使用場景及其千差萬別的用戶類型和需求,促使人工智能系統(tǒng)的局限性、消極影響以及潛在風(fēng)險(xiǎn)充分顯現(xiàn)。廣大用戶的切身感受和迫切期望有助于人工智能技術(shù)改進(jìn)以及應(yīng)用規(guī)范的建構(gòu),可稱為“二次對齊”。該過程受制于人工智能技術(shù)推廣應(yīng)用進(jìn)程以及廣大用戶的認(rèn)識(shí)過程。在此,“二次對齊”主要有兩條實(shí)現(xiàn)路徑:一是通過向研發(fā)者反饋意見的方式,將用戶的感受與建議轉(zhuǎn)化為新的技術(shù)設(shè)計(jì)或改進(jìn)方案,重塑價(jià)值標(biāo)準(zhǔn)或評(píng)判規(guī)則,推動(dòng)人工智能技術(shù)改進(jìn)和迭代升級(jí),可稱為“內(nèi)化”途徑;二是通過與科技界、產(chǎn)業(yè)界、政府機(jī)構(gòu)等部門之間的廣泛交流、反復(fù)磋商,為人工智能技術(shù)的推廣應(yīng)用制訂社會(huì)規(guī)范或守則,促使人工智能技術(shù)向善,可稱為“外化”途徑。當(dāng)然,這里的價(jià)值對齊過程是開放的,需要學(xué)習(xí)和借鑒國內(nèi)外乃至其他行業(yè)的先進(jìn)經(jīng)驗(yàn),不斷創(chuàng)新和改進(jìn)價(jià)值對齊的機(jī)制和模式;同時(shí),價(jià)值對齊也不是一次就能完成的,而是伴隨著人工智能技術(shù)發(fā)展和社會(huì)變遷分階段持續(xù)推進(jìn)的,不同國家、地區(qū)或行業(yè)的對齊進(jìn)程各有特色,總體上展現(xiàn)為滾動(dòng)遞進(jìn)的進(jìn)化態(tài)勢。

這里需要強(qiáng)調(diào)的是,在現(xiàn)實(shí)生活中,人工智能技術(shù)的價(jià)值對齊是在時(shí)代、資本、權(quán)力、欲望、競爭和文化等多重社會(huì)因素的影響下展開的,既是多方共識(shí)的形成和實(shí)現(xiàn)過程,也是多方訴求與力量的博弈過程,從而使價(jià)值對齊進(jìn)程曲折而復(fù)雜多變。概而言之,整體劃一的價(jià)值完全(或絕對)對齊只是一種理想化狀態(tài),可望而不可及;現(xiàn)實(shí)生活中的對齊都是分階段逐步實(shí)現(xiàn)的價(jià)值部分(或相對)對齊過程,展現(xiàn)為趨向價(jià)值完全(或絕對)對齊的進(jìn)程或趨勢,永遠(yuǎn)在路上。

人工智能技術(shù)價(jià)值對齊的可行路徑

面對人工智能技術(shù)的快速發(fā)展和價(jià)值體系紊亂的現(xiàn)實(shí),我們不能簡單地回避或否定價(jià)值對齊困難,而應(yīng)當(dāng)積極探尋價(jià)值對齊的可行路徑。在現(xiàn)實(shí)生活中,由于人工智能等高新技術(shù)的規(guī)范尚未進(jìn)入法律視野或立法程序,因而科技倫理治理就成為阻遏技術(shù)負(fù)效應(yīng)蔓延的唯一一道防線,肩負(fù)著重要的社會(huì)歷史使命,[17] 人工智能技術(shù)倫理治理是人類積極應(yīng)對人工智能倫理風(fēng)險(xiǎn)和治理難題的應(yīng)然選擇。[18]中辦和國辦聯(lián)合發(fā)布的《關(guān)于加強(qiáng)科技倫理治理的意見》、科技部制定的《科技倫理審查辦法(試行)》等文件,就是在這一時(shí)代背景下出臺(tái)的。筆者從技術(shù)倫理治理視角出發(fā),結(jié)合人工智能技術(shù)特征尤其是價(jià)值對齊困難,從“價(jià)值”“制度”“技術(shù)”“生態(tài)”和“迭代”等維度,提出推進(jìn)人工智能技術(shù)健康發(fā)展的五項(xiàng)治理對策與建議。

一是價(jià)值導(dǎo)引:明確人工智能倫理道德原則和價(jià)值觀。從全球來看,一些國家和組織發(fā)布了相關(guān)政策文件,明確人工智能系統(tǒng)在設(shè)計(jì)時(shí)應(yīng)遵循的道德原則。例如,歐盟確定了使用人工智能的四項(xiàng)道德原則:不惡意、尊重自主、算法公平和透明。安娜·喬賓(Anna Jobin)等人基于對84份政策文件的梳理發(fā)現(xiàn),各國人工智能指南中確定的倫理原則主要包括透明度、公平正義等11個(gè)方面;全球?qū)@其中的5項(xiàng)倫理原則不斷融合:透明度、公正公平、不惡意、責(zé)任和隱私。[19]黨的十八大以來,黨中央高度重視科技倫理治理,組建國家科技倫理委員會(huì),完善治理體制機(jī)制,推動(dòng)科技倫理治理取得積極進(jìn)展。《關(guān)于加強(qiáng)科技倫理治理的意見》明確提出了“倫理先行、依法依規(guī)、敏捷治理、立足國情和開放合作”的治理要求,并制定了科技倫理治理的五項(xiàng)原則:增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開透明?!犊萍紓惱韺彶檗k法(試行)》對科技倫理審查的總則、審查主體、審查程序、監(jiān)督管理等都作出了明確要求?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能倫理規(guī)范》《生成式人工智能服務(wù)管理暫行辦法》等一系列文件的出臺(tái),進(jìn)一步明確了對人工智能技術(shù)的倫理規(guī)約和價(jià)值引導(dǎo)。未來需要在既有工作的基礎(chǔ)上進(jìn)一步深入和細(xì)化,前瞻性地確立人工智能發(fā)展的價(jià)值原則,其中最為核心的是要堅(jiān)持人是目的或人本的原則[20],并明確人工智能全生命周期的倫理道德原則和價(jià)值導(dǎo)向;廣泛開展宣傳和培訓(xùn),并與基礎(chǔ)性教育、專業(yè)化培訓(xùn)等相結(jié)合,提高其社會(huì)知曉度、認(rèn)可度和遵從度。還需要建立監(jiān)督和考核評(píng)價(jià)機(jī)制,定期或不定期評(píng)估人工智能系統(tǒng)是否符合倫理道德要求和價(jià)值導(dǎo)向;并鼓勵(lì)社會(huì)大眾積極參與,及時(shí)反饋意見和建議,提高人工智能治理的透明度和公正性。

二是制度規(guī)約:構(gòu)建多層次的人工智能發(fā)展制度規(guī)范體系。堅(jiān)持發(fā)展與安全并重,一方面通過政策引導(dǎo)和資金投入,大力推進(jìn)人工智能發(fā)展。例如,加強(qiáng)基礎(chǔ)研究與技術(shù)創(chuàng)新,增加對人工智能基礎(chǔ)研究的財(cái)政投入,支持高校、研究機(jī)構(gòu)和企業(yè)實(shí)驗(yàn)室探索前沿技術(shù)。創(chuàng)建人工智能教育與培訓(xùn)體系,特別是在深度學(xué)習(xí)、自然語言處理等人工智能內(nèi)核領(lǐng)域,培養(yǎng)高水平科研人才。促進(jìn)國內(nèi)外學(xué)術(shù)交流與合作,共享研究成果,加速技術(shù)升級(jí)迭代。鼓勵(lì)人工智能與制造業(yè)、醫(yī)療健康、文化創(chuàng)意等產(chǎn)業(yè)深度融合,創(chuàng)造新型應(yīng)用場景。出臺(tái)專項(xiàng)政策,支持人工智能技術(shù)在中小企業(yè)中的推廣應(yīng)用,加速產(chǎn)業(yè)化進(jìn)程。加強(qiáng)國際交流與合作,積極參與國際人工智能標(biāo)準(zhǔn)和規(guī)則的制定,提升國際影響力。另一方面,也要通過制度化安排強(qiáng)化安全監(jiān)管。例如,創(chuàng)建完善的人工智能倫理框架,確保生成內(nèi)容的合法性、真實(shí)性和倫理性;制定人工智能技術(shù)與應(yīng)用的行業(yè)標(biāo)準(zhǔn),確保技術(shù)安全與規(guī)范運(yùn)行,制定相關(guān)倫理準(zhǔn)則。建立語料數(shù)據(jù)保護(hù)法規(guī),制定或修訂數(shù)據(jù)保護(hù)法律,強(qiáng)化個(gè)人數(shù)據(jù)的保護(hù),明確數(shù)據(jù)獲取渠道,禁止非法或未經(jīng)許可的數(shù)據(jù)使用,確保數(shù)據(jù)收集和處理遵循最小必要原則;保護(hù)用戶數(shù)據(jù)的安全與隱私,創(chuàng)建嚴(yán)格的數(shù)據(jù)處理標(biāo)準(zhǔn),確保個(gè)人隱私在人工智能訓(xùn)練過程中的安全。完善監(jiān)管機(jī)制,建立適應(yīng)新技術(shù)特點(diǎn)的監(jiān)管機(jī)制,防止技術(shù)濫用,保障人工智能技術(shù)健康發(fā)展。人工智能的未來在于平衡創(chuàng)新與責(zé)任,通過多層次制度規(guī)范體系,構(gòu)建一個(gè)既鼓勵(lì)技術(shù)進(jìn)步又注重價(jià)值導(dǎo)向的環(huán)境,這就離不開政府的前瞻性政策、產(chǎn)業(yè)界的自我規(guī)范、學(xué)術(shù)界的深入研究以及公眾的廣泛參與。

三是協(xié)同治理:構(gòu)建共治共享的人工智能治理體系。人工智能發(fā)展和應(yīng)用過程涉及一系列治理主體,不僅包括政府,還有人工智能技術(shù)研發(fā)者、應(yīng)用型企業(yè)、科研機(jī)構(gòu)、非政府組織和廣大用戶等。這些不同類型的主體具有不同的特點(diǎn)、訴求、視角和期望,甚至彼此之間還會(huì)發(fā)生沖突,這無疑增加了治理的難度。因此,要實(shí)現(xiàn)有效的人工智能治理,就必須在政府、企業(yè)、學(xué)界和公眾等主體之間建立協(xié)同共治機(jī)制,共同研究和解決人工智能治理中的一系列復(fù)雜問題,推動(dòng)人工智能健康發(fā)展。與傳統(tǒng)的統(tǒng)治、管制理念不同,治理是新公共管理理論提出的一個(gè)新理念。它是一種由共同目標(biāo)支持的管理活動(dòng),參與此類活動(dòng)的主體較多,展現(xiàn)為一個(gè)促使相互沖突或不同利益訴求的調(diào)和,彼此互動(dòng)博弈、協(xié)同合作、聯(lián)合行動(dòng)的持續(xù)改進(jìn)過程。因此,將科技倫理治理理念和架構(gòu)貫徹到人工智能技術(shù)研發(fā)與推廣應(yīng)用過程各環(huán)節(jié),有助于調(diào)動(dòng)社會(huì)各方的積極性,推進(jìn)價(jià)值對齊進(jìn)程,促進(jìn)人工智能技術(shù)的持續(xù)健康發(fā)展。要實(shí)現(xiàn)多方主體的高效協(xié)同,還需建立健全協(xié)同機(jī)制,需要整合各方的資源和優(yōu)勢;建立多方參與的協(xié)同平臺(tái),制定協(xié)同治理的規(guī)則和程序,建立信息共享機(jī)制和激勵(lì)相容機(jī)制以及明確的職責(zé)分工體系,有效調(diào)動(dòng)多方主體共治的積極性。

四是技術(shù)突破:打造安全可控的人工智能技術(shù)體系。人工智能具有很強(qiáng)的技術(shù)復(fù)雜性,需要加強(qiáng)技術(shù)治理,打造安全可控的技術(shù)體系。必須加強(qiáng)關(guān)鍵技術(shù)攻關(guān)與自主可控,如算法創(chuàng)新、模型優(yōu)化、計(jì)算能力提升等,減少對外部技術(shù)的依賴,增強(qiáng)安全性和可靠性。應(yīng)加大對關(guān)鍵技術(shù)的研發(fā)投入,支持高校、研究機(jī)構(gòu)和企業(yè)進(jìn)行集中技術(shù)攻關(guān),鼓勵(lì)企業(yè)通過政產(chǎn)學(xué)研合作,加速技術(shù)創(chuàng)新和成果轉(zhuǎn)化。利用隱私計(jì)算、聯(lián)邦計(jì)算、數(shù)據(jù)加密、數(shù)據(jù)分級(jí)分類等技術(shù)手段,確保數(shù)據(jù)的安全可控。采用多樣化的數(shù)據(jù)集進(jìn)行算法訓(xùn)練,以減少算法偏見;建立算法審計(jì)機(jī)制,定期對人工智能系統(tǒng)進(jìn)行審計(jì),及時(shí)發(fā)現(xiàn)和糾正潛在的價(jià)值偏見。建立人工智能系統(tǒng)的解釋性標(biāo)準(zhǔn),要求人工智能系統(tǒng)在設(shè)計(jì)時(shí)就考慮其解釋性,并加強(qiáng)對人工智能系統(tǒng)解釋性的監(jiān)管,確保其符合相關(guān)規(guī)范和標(biāo)準(zhǔn)。建立持續(xù)跟蹤監(jiān)控機(jī)制,建立監(jiān)控平臺(tái),實(shí)時(shí)監(jiān)控人工智能系統(tǒng)的運(yùn)行狀態(tài)和輸出結(jié)果,及時(shí)發(fā)現(xiàn)問題和潛在風(fēng)險(xiǎn),并能夠迅速采取有效干預(yù)和調(diào)控措施。

五是敏捷治理:建立快速響應(yīng)和迭代優(yōu)化機(jī)制。傳統(tǒng)治理模式具有滯后性、靜態(tài)性、單向性和事后性等特點(diǎn),多基于過往經(jīng)驗(yàn)和現(xiàn)實(shí)情況制定相關(guān)策略,難以適應(yīng)人工智能技術(shù)快速發(fā)展的需求。而敏捷治理具有靈活性、適應(yīng)性、合作性和前瞻性等特點(diǎn),能夠較好地適應(yīng)人工智能技術(shù)快速發(fā)展趨勢。具體來看,敏捷治理強(qiáng)調(diào)治理體系的靈活性,能夠快速適應(yīng)不斷變化的技術(shù)環(huán)境;能夠根據(jù)技術(shù)發(fā)展的需要及時(shí)調(diào)整治理策略和措施;鼓勵(lì)多方參與,形成合作共治的局面,以提高治理的效率和效果;注重預(yù)測未來可能出現(xiàn)的問題,并提前制定應(yīng)對策略。通過敏捷治理方式,并結(jié)合試驗(yàn)方法,能夠有效提升識(shí)別人工智能倫理風(fēng)險(xiǎn)、評(píng)估倫理治理框架、化解倫理治理沖突的效能[21],從而快速適應(yīng)、靈活應(yīng)對人工智能帶來的挑戰(zhàn)。敏捷治理不僅是一種理念,還需要有配套的具體手段和措施,其核心要素包括人工智能發(fā)展與應(yīng)用的動(dòng)態(tài)監(jiān)測和風(fēng)險(xiǎn)評(píng)估、靈活的政策舉措、多方參與和合作。通過動(dòng)態(tài)跟蹤和評(píng)估,建立快速響應(yīng)機(jī)制,及時(shí)調(diào)整治理措施,制定靈活的政策法規(guī),以適應(yīng)快速變化的人工智能治理場景。

總體來看,人工智能技術(shù)的加速發(fā)展沖擊著傳統(tǒng)社會(huì)秩序和價(jià)值體系。在推動(dòng)人工智能技術(shù)發(fā)展的同時(shí),我們必須清醒地意識(shí)到人工智能技術(shù)的價(jià)值負(fù)載及其可能帶來的風(fēng)險(xiǎn)與挑戰(zhàn)。通過價(jià)值引導(dǎo)、制度規(guī)約、協(xié)同治理、技術(shù)突破和敏捷治理等途徑和措施,更有效地應(yīng)對人工智能技術(shù)加速發(fā)展沖擊及其價(jià)值對齊困難,推動(dòng)人工智能技術(shù)的健康發(fā)展和社會(huì)福祉的最大化。

結(jié)語

綜上所述,人工智能價(jià)值對齊涉及社會(huì)倫理、法律、經(jīng)濟(jì)、文化、政治等多個(gè)維度,既是一個(gè)復(fù)雜的價(jià)值論問題,也是一個(gè)關(guān)涉社會(huì)多方利益的實(shí)踐問題;既關(guān)涉社會(huì)多方訴求或意向的解讀和還原,也需要探尋其中的共同價(jià)值訴求及其實(shí)現(xiàn)方式。不難理解,這是一個(gè)處于快速演化之中的開放的“問題群”,值得全社會(huì)關(guān)注、警惕、探究和應(yīng)對。

技術(shù)負(fù)載著價(jià)值,人工智能承載著研發(fā)者、訓(xùn)練者、使用者等多方主體的意志或價(jià)值訴求,這是價(jià)值對齊的基礎(chǔ)和前提,也是人工智能具備弱意識(shí)形態(tài)傾向或功能的證據(jù);可視為印證法蘭克福學(xué)派有關(guān)科學(xué)技術(shù)的意識(shí)形態(tài)功能等論述的新情況、新證據(jù)[22],是一個(gè)值得關(guān)注和探討的重要理論問題。價(jià)值對齊是一個(gè)社會(huì)多方協(xié)同、持續(xù)演進(jìn)的復(fù)雜過程,不可能一蹴而就,是進(jìn)行時(shí)態(tài)而不是完成時(shí)態(tài)。前述的一次對齊和二次對齊只是對人工智能價(jià)值對齊機(jī)制與過程的一種簡單化處理,其中的許多細(xì)節(jié)和環(huán)節(jié)尚未得到具體分析和充分討論。這將是后續(xù)研究深化和努力的一個(gè)方向。

以價(jià)值對齊為目標(biāo)的人工智能倫理治理是當(dāng)今科技倫理治理的前沿領(lǐng)域,面臨著認(rèn)識(shí)與實(shí)踐的雙重挑戰(zhàn):一方面,人工智能技術(shù)研發(fā)及其應(yīng)用過程中派生的一系列新問題還需要深入認(rèn)識(shí)和評(píng)估;另一方面,如何在價(jià)值觀、價(jià)值判斷、現(xiàn)實(shí)需求和認(rèn)識(shí)水平存在差異的不同群體之間進(jìn)行充分溝通和交流,求取價(jià)值對齊的最大公約數(shù),也是一個(gè)考驗(yàn)人類智慧的實(shí)踐難題。本文對人工智能價(jià)值對齊困難及其實(shí)現(xiàn)路徑等問題的初步分析和討論,廣度與深度都有待加強(qiáng),錯(cuò)訛之處也有待學(xué)術(shù)批評(píng),希望能借此引發(fā)學(xué)界的關(guān)注和討論,集思廣益,為人工智能治理問題出謀劃策,促進(jìn)人工智能的持續(xù)健康發(fā)展,造福人類社會(huì)。

【本文作者為 中國人民大學(xué)哲學(xué)院教授 王伯魯;中國人民大學(xué)哲學(xué)院博士研究生 史少春。本文系國家社會(huì)科學(xué)基金(高校思政課研究專項(xiàng))項(xiàng)目“馬克思主義科技觀的當(dāng)代內(nèi)涵及其教學(xué)應(yīng)用研究”(項(xiàng)目編號(hào):20VSZ126)的階段性成果】

注釋略

責(zé)編:馮一帆/美編:王嘉騏

責(zé)任編輯:張宏莉