青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

“算法焦慮”的生成機理及紓解之道

【摘要】人工智能時代算法的領(lǐng)域歸屬、形態(tài)屬性與功能價值發(fā)生重大變化,其影響力失控蔓延的苗頭愈加明顯,催生“算法焦慮”。本文以“算法焦慮”現(xiàn)象為研究對象,從算法自身以及規(guī)制理念、治理模式等多個角度系統(tǒng)挖掘“算法焦慮”誘發(fā)因素,進而從多元互動、相互聯(lián)結(jié)的維度構(gòu)建邁向算法信任的本土化治理方案。

【關(guān)鍵詞】“算法焦慮” 生成機理 算法信任 治理方案

【中圖分類號】F49    【文獻標識碼】A

“算法焦慮”:人工智能時代典型現(xiàn)象

第一,算法侵蝕個人主體性。算法可以根據(jù)個人的興趣愛好,打造具有沉浸感、互動感和愉悅感的個性化定制智能場景,信息、資訊傳播路徑由過去的“千人一面”轉(zhuǎn)變?yōu)?ldquo;千人千面”,不斷滿足用戶的信息興趣和需求偏好。這種顛覆性變化依靠數(shù)據(jù)收集與處理來支撐。算法通過多種渠道收集用戶的行為習(xí)慣、信息興趣、信息需求,將其集合到數(shù)據(jù)庫之中,并通過一定的運算規(guī)則進行“用戶畫像”,把零散的數(shù)據(jù)信息整合成可視化的“完整個體”,將虛擬世界的個體與現(xiàn)實世界的個體相聯(lián)結(jié)。在聯(lián)結(jié)過程中,用戶信息收集環(huán)節(jié)極易出現(xiàn)“失控”現(xiàn)象。因為在算法面前,用戶評論、轉(zhuǎn)發(fā)、點贊、收藏等行為所產(chǎn)生的信息均會不由自主地成為算法的“囊中之物”。這就使公眾的個人主體性遭受侵犯,對算法難以產(chǎn)生有效信任,在與其互動時出現(xiàn)玻璃箱中“小白鼠”式焦慮。

第二,算法帶來“內(nèi)卷化”現(xiàn)象。“內(nèi)卷化”這一被廣泛應(yīng)用到各個學(xué)科與領(lǐng)域之中的學(xué)術(shù)概念,深刻地揭示出組織或者社會中既無突變式變化,亦無漸進式增長,總是在較低水平徘徊的現(xiàn)象。算法領(lǐng)域的“內(nèi)卷化”現(xiàn)象較為突出。受到經(jīng)驗閱歷、知識水平、思想追求、價值傾向等綜合因素影響,個體用戶的信息需求與興趣偏好會保持較為穩(wěn)定的狀態(tài),這決定了個體用戶的“用戶畫像”呈現(xiàn)出整體輪廓不易改變、具體細節(jié)動態(tài)調(diào)整的典型特征。算法為了實現(xiàn)對用戶需求的“精準打擊”,必然會根據(jù)用戶主體進行“精準推送”。在雙向性、回旋型、交流式的互動模型中,用戶接收的是極大滿足自身信息需求的“海量推送”,出現(xiàn)越看越“精準”、越看越“貼心”、越看越“沉浸”的局面。但是算法強調(diào)“精度”與“敏度”,忽視“溫度”與“增度”,不會考慮用戶信息需求的價值性、規(guī)范性與增值性。受眾接收的不再是多元全面、葷素搭配的信息,而是“同質(zhì)異象”的、與用戶信息偏好高度吻合的信息。由此,用戶在海量信息里面的營養(yǎng)收益呈現(xiàn)出邊際遞減的趨勢,“內(nèi)卷化”現(xiàn)象凸顯,出現(xiàn)人工智能時代“逆水行舟,不進則退”式焦慮。

第三,算法影響公眾輿論導(dǎo)向把控。信息與資訊能夠影響公眾的認知與判斷,對公眾的輿論行為具有調(diào)控乃至再造的功能。算法針對用戶偏好進行海量信息的智能推送,“同類信息”“一種聲音”持續(xù)轟炸用戶的眼球與大腦,“異類信息”“不同聲音”則受到限制與屏蔽,風(fēng)聲雨聲讀書聲難以聲聲入耳。同類的、滿足用戶偏好的海量信息極大壓縮用戶仔細篩選、獨立思考以及理性判斷的空間,使其成為任由算法擺布的“繭房蠶蟲”,陷入越是喜歡越是“投喂”、越是“投喂”越是“自縛”的桎梏。長此以往,以自我封閉、固執(zhí)僵化和拒絕交流為核心特征的偏執(zhí)型用戶會大量出現(xiàn),逐漸在網(wǎng)絡(luò)空間中集結(jié)成或緊密或松散的輿論聯(lián)合體,在虛擬與現(xiàn)實的聯(lián)結(jié)中影響公眾輿論導(dǎo)向。與傳統(tǒng)媒體的輿論導(dǎo)向功能相比,算法影響公眾輿論導(dǎo)向的力度更大、范圍更廣、時間更久。算法對公眾輿論的導(dǎo)向與把控是技術(shù)理性作用的結(jié)果,由于缺乏價值理性的正向引導(dǎo),算法對公眾輿論導(dǎo)向的負面效應(yīng)亦難以避免,出現(xiàn)以“知識鴻溝”“沉默的螺旋”等為典型代表的群體式焦慮。

生成機理:誘發(fā)因素系統(tǒng)化剖析

“算法焦慮”在個人、群體乃至社會層面均有所體現(xiàn),誘發(fā)“算法焦慮”的因素也是多種多樣、相互交織的,既有算法自身層面的問題,也有規(guī)制理念、治理模式等層面的問題。

第一,一段時間內(nèi)盛行的“技術(shù)中立論”的錯誤引導(dǎo)。在算法早期發(fā)展階段,它主要用來解決一些較為簡單、涉及范圍較小的問題。對算法的審視主要以技術(shù)本身的內(nèi)部視域為主,更多關(guān)注商業(yè)領(lǐng)域內(nèi)算法技術(shù)的革新與增長,認為算法在倫理層面的判斷具有中立性。由此,算法“技術(shù)中立論”大行其道。歷史地看,算法“技術(shù)中立論”能夠在一定程度上保證算法的相對獨立性,幫助其在早期發(fā)展階段獲得革新與增長的空間。但是從本質(zhì)來講,算法作為一種技術(shù)始終擺脫不了人的因素,算法始終會有人的情緒與偏好烙印,根本不能做到中立而無偏斜。“技術(shù)中立論”本身就是個偽命題。尤其是隨著人工智能蓬勃發(fā)展,算法逐漸嵌入到經(jīng)濟社會發(fā)展的方方面面,政府與社會的監(jiān)督管理與引導(dǎo)更加成為算法發(fā)展的應(yīng)然要求。然而受到思維慣性、體制惰性以及商業(yè)利潤等因素的影響,很長一段時間內(nèi)算法“技術(shù)中立論”仍舊占據(jù)主導(dǎo)地位,致使算法既缺乏政府有效監(jiān)管,又缺乏系統(tǒng)化、科學(xué)化的頂層設(shè)計,呈現(xiàn)出“野蠻生長”態(tài)勢,“算法霸權(quán)”“算法歧視”“算法繭房”等亂象層出不窮。

第二,“算法黑箱”等技術(shù)特性增加外部有效監(jiān)督的困難性。算法可能比用戶更加了解自身的需求和偏好,然而用戶對算法卻是知之甚少,可能都不會察覺到隱藏在人工智能、大數(shù)據(jù)、區(qū)塊鏈等標志性技術(shù)背后的算法的存在。這是因為算法和有形物品不同,具有很強的載體依附性與隱蔽性,用戶無法清晰地了解其內(nèi)部運行機理。由算法的技術(shù)特性帶來的不透明現(xiàn)象被生動地描述為“算法黑箱”。“算法黑箱”成為橫亙在算法與公眾、社會與政府之間的一道鴻溝,帶來外部有效監(jiān)督的困難性。法國總統(tǒng)馬克龍在2018年接受連線雜志采訪時稱,應(yīng)用在公共事業(yè)領(lǐng)域的算法,會逐步公布其代碼和模型,以降低因算法不透明而帶來的種種風(fēng)險與公眾恐慌。然而這種做法收效甚微。原因在于,向社會和公眾公布的代碼和模型仍舊具有高度專業(yè)性與程序性特征,只有少部分具有專業(yè)知識的公眾以及專業(yè)領(lǐng)域的行政人員才能理解其內(nèi)在運行機理,才能對算法應(yīng)用后的風(fēng)險進行預(yù)測與評估。在算法仍舊是“黑暗的秘密”情況下,“算法焦慮”自然難以紓解。

第三,“互聯(lián)網(wǎng)+”治理與“互聯(lián)網(wǎng)+”增長間的悖論。人工智能時代,政府智能治理以“互聯(lián)網(wǎng)+”式的回應(yīng)型治理模式為主,呈現(xiàn)的是“問題—對策”的邏輯范式。回應(yīng)型治理模式基本能夠適應(yīng)公共治理、社會治理領(lǐng)域中的諸多問題,是有效提高治理效能的科學(xué)模式。然而在智能治理領(lǐng)域,算法呈現(xiàn)出“互聯(lián)網(wǎng)+”式的指數(shù)增長規(guī)律,區(qū)別于呈現(xiàn)線性增長規(guī)律的其他問題。“互聯(lián)網(wǎng)+”式的回應(yīng)型治理與“互聯(lián)網(wǎng)+”指數(shù)增長間的悖論油然而生。二者之間的悖論意味著政府在“算法焦慮”治理情景中經(jīng)常扮演事后處罰者的角色,問題處置的滯后性極易影響“算法焦慮”治理效能。因此,我們經(jīng)常發(fā)現(xiàn)治理“算法焦慮”過程中傳統(tǒng)的政府治理框架頻繁失效,對現(xiàn)有治理框架進行稍許改良的路徑亦難以持續(xù)回應(yīng)層出不窮的新焦慮。

多元互動:邁向算法信任的治理方案

人工智能時代算法治理已經(jīng)成為推進國家治理體系和治理能力現(xiàn)代化的題中應(yīng)有之義。綜合考慮我國智能治理現(xiàn)狀以及“算法焦慮”的主要表現(xiàn)和誘因,紓解“算法焦慮”,邁向算法信任,必須進一步堅持科學(xué)謀劃、多管齊下、重點突出、持續(xù)優(yōu)化的復(fù)合型治理思路。

第一,進一步完善用戶數(shù)據(jù)區(qū)分與隱私保護機制。把握好數(shù)據(jù)區(qū)分與隱私保護之間的辯證關(guān)系,就是抓住了算法的“阿喀琉斯之踵”,是紓解“算法焦慮”,邁向算法信任的重要內(nèi)容。數(shù)據(jù)是算法賴以生存和增長的前提,一定規(guī)模與質(zhì)量的數(shù)據(jù)是算法發(fā)揮功效的重要保證。因此,探討數(shù)據(jù)區(qū)分與隱私保護的辯證關(guān)系,要著重思考數(shù)據(jù)的權(quán)屬及其使用邊界問題。數(shù)據(jù)的權(quán)屬可以分為三種情形。一是敏感型數(shù)據(jù)的權(quán)屬。涉及用戶個人信息、底層使用痕跡的數(shù)據(jù)被稱為“敏感型數(shù)據(jù)”,用戶擁有敏感型數(shù)據(jù)的所有權(quán)。二是公共型數(shù)據(jù)的權(quán)屬。應(yīng)用于行政、司法等領(lǐng)域的、經(jīng)過匿名化處理的數(shù)據(jù)被稱為“公共型數(shù)據(jù)”,數(shù)據(jù)控制者擁有受限制的所有權(quán)。三是脫敏型數(shù)據(jù)的權(quán)屬。經(jīng)過數(shù)據(jù)清理加工的衍生數(shù)據(jù)被稱為“脫敏型數(shù)據(jù)”,數(shù)據(jù)控制者擁有所有權(quán)。對敏感型數(shù)據(jù)而言,算法企業(yè)或平臺不能私自使用,更不能泄露甚至買賣,否則后果將不堪設(shè)想。對公共型數(shù)據(jù)而言,行政機關(guān)、司法部門必須按照嚴格的規(guī)定與程序,有限度使用與處理數(shù)據(jù)。對脫敏型數(shù)據(jù)而言,可以集中應(yīng)用于新聞推薦場景、搜索引擎排序以及電子商務(wù)領(lǐng)域,但仍要注意數(shù)據(jù)使用的限度,防止數(shù)據(jù)過度使用帶來的次生問題。

第二,進一步構(gòu)建適應(yīng)算法發(fā)展實際的法律體系。法律因其治理效能的權(quán)威性、規(guī)范性與持續(xù)性,被認為是治理“算法焦慮”的“重器”。我國一向重視人工智能領(lǐng)域立法工作,已形成一定的法律框架體系,為治理“算法焦慮”提供重要指導(dǎo)和遵循。同時也應(yīng)該看到,與治理“算法焦慮”相關(guān)的法律法規(guī)呈現(xiàn)出零散化以及低位階的顯著特點。下一步,應(yīng)該重點關(guān)注相關(guān)法律體系的完整化、精細化以及層次化問題。

第三,進一步凸顯算法使用平臺自我治理的優(yōu)勢。人工智能時代,算法使用平臺與行政、司法等領(lǐng)域相結(jié)合,算法“公共性”色彩日益增強。強化算法使用平臺自我把關(guān)、自我控制的責(zé)任與義務(wù),既是符合算法技術(shù)特點的基本要求,也是算法使用平臺主動維護用戶利益與權(quán)利、承擔(dān)社會責(zé)任的必然要求。一方面,算法使用平臺應(yīng)該加強價值引領(lǐng)與導(dǎo)向把控。應(yīng)該摒棄“流量為王”“利潤至上”“娛樂至死”等不良導(dǎo)向,堅持以人民為中心的價值導(dǎo)向,傳播主流價值觀,主動落實用主流價值導(dǎo)向駕馭算法,全面提高輿論引導(dǎo)能力的部署要求。另一方面,算法使用平臺應(yīng)該在一定程度上“去算法化”。人工智能時代算法在不同場景下深度學(xué)習(xí)和優(yōu)化升級的能力與日俱增,但是再先進的技術(shù)也有自身的盲區(qū)與缺陷,機器始終無法全面代替人類。算法使用平臺依賴算法而生存,但是要想取得持續(xù)優(yōu)化與改進,必然要在一定程度上“去算法化”,逐步打造一支本領(lǐng)高強、站位較高的“把關(guān)人”“總編輯”隊伍,強化人工審核與問題糾偏的重要功能。

第四,進一步保持對算法使用平臺監(jiān)督問責(zé)的良好態(tài)勢。黨的十八大以來,一大批導(dǎo)向不正、格調(diào)低俗的自媒體、公眾號被拉入“黑名單”,諸多烏煙瘴氣、逾越道德和法律底線的APP被永久關(guān)停。這既能有效打擊算法使用平臺違法犯罪行為,同時也拉起一條網(wǎng)絡(luò)“高壓線”,為治理“算法焦慮”、重塑算法信任保駕護航。下一步,要把完善算法登記備案制度以及強化算法技術(shù)審查機制作為行進重點。依據(jù)《國家新一代人工智能標準體系建設(shè)指南》等重要文件,對算法進行分類別、分領(lǐng)域、分層次的登記備案,可以在算法投入應(yīng)用前確立責(zé)任主體,強化對算法應(yīng)用平臺的事前審核監(jiān)督。同時,也應(yīng)該強化算法技術(shù)審查機制,對算法使用后果持續(xù)追蹤、及時反饋、系統(tǒng)剖析,從而發(fā)現(xiàn)問題、解決問題,實現(xiàn)事前監(jiān)督與事中監(jiān)督、問責(zé)相結(jié)合,充分體現(xiàn)對算法技術(shù)、算法使用平臺激勵與約束并重、嚴管與厚愛結(jié)合的正確導(dǎo)向。

(作者為中共中央黨校(國家行政學(xué)院)黨的領(lǐng)導(dǎo)與領(lǐng)導(dǎo)科學(xué)教研室主任、教授、博導(dǎo);中共中央黨校(國家行政學(xué)院)黨的建設(shè)教研部博士研究生候術(shù)山對本文亦有貢獻)

【注:本文系國家社會科學(xué)基金重點項目“完善中國縣處級黨政領(lǐng)導(dǎo)干部考核評價體系和獎懲機制研究”(項目編號:16ADJ007)和教育部人文社科規(guī)劃基金項目“新形勢下領(lǐng)導(dǎo)干部敢于擔(dān)當(dāng)?shù)膭恿εc激勵機制研究”(項目編號:18YJA810005)研究成果】

責(zé)編/潘麗莉 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標明來源及作者,否則追究法律責(zé)任。 

[責(zé)任編輯:谷漩]