中國傳媒大學國際傳媒教育學院院長 金雪濤
【摘要】如果說數(shù)據(jù)是數(shù)字經(jīng)濟時代的核心生產(chǎn)要素,那么算法則是推進這一核心生產(chǎn)要素資產(chǎn)化和價值化的運行基礎。當數(shù)字技術賦能各個領域,催生了新產(chǎn)品、新組織模式、新商業(yè)模式和新產(chǎn)業(yè)業(yè)態(tài)的同時,也帶來了諸如算法歧視、算法操縱、算法協(xié)同、算法黑箱等潛在風險。不同類型的算法經(jīng)由設計和實施,其帶來的算法應用潛在風險不同,并可能導致政府失靈與市場失靈。圍繞“治理主體—治理對象—治理工具措施”探索算法治理的體系架構,可以融合多元主體協(xié)同、利益均衡和敏捷治理等三種機制,在元規(guī)制和全過程管理理念的基礎上優(yōu)化算法治理措施,推動三種機制并行。
【關鍵詞】算法風險 算法類型 治理體系 治理措施
【中圖分類號】D630 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2022.10.004
引言
從技術的角度看,算法是一個解決問題的計算過程,是一個包含算數(shù)運算、邏輯運算、關系運算的從輸入到輸出的程序;從社會學的角度看,算法是設計者與算法參數(shù)(運算過程)及算法對象之間的互動,這個互動過程也伴隨技術倫理問題的產(chǎn)生;從經(jīng)濟學的角度看,算法是完成對數(shù)據(jù)資源“輸入—輸出”的分析系統(tǒng),提高生產(chǎn)力的同時也會影響生產(chǎn)關系。伴隨數(shù)字技術的普及應用,社會體系中的微觀、中觀、宏觀等各層級無一不被嵌入算法的技術環(huán)境與契約環(huán)境之中。依靠機器學習的算法通過數(shù)據(jù)分析更精準地掌握了需求側的偏好,極大地促進了供給側的生產(chǎn)、管理與運營效率的提升。然而,算法在深度賦能社會經(jīng)濟生活方方面面的同時,也帶來了諸如算法歧視、算法操縱、算法共謀、算法黑箱等潛在風險。
算法的技術中立性產(chǎn)品特點與算法應用后“技術權力”濫用及壟斷的矛盾,促使我們重新審視算法應用與潛在風險之間的關系。我們需要深入分析算法應用產(chǎn)生風險的特征以及風險產(chǎn)生的機理,本研究將從技術權力向資本權力和對公共資源控制轉(zhuǎn)化的角度闡釋算法應用所導致的市場失靈與政府失靈。進一步地,圍繞“治理主體—治理對象—治理工具措施”探索算法治理的體系架構,提出融合多元主體協(xié)同、利益均衡和敏捷治理等三種機制,在元規(guī)制和全過程管理理念的基礎上優(yōu)化算法治理措施。
算法治理研究溯源
算法研究的總體趨勢。早在公元前1世紀,我國《周髀算經(jīng)》就對四分歷法進行說明,同時用商高問答解釋了“勾三股四玄五”這一勾股定律的特例,已經(jīng)有了數(shù)學及算法的雛形。算法(Algorithm)一詞來自于波斯數(shù)學天才花剌子模(Mu?ammad ibn Mūsā al-Khwārizmī)名字的拉丁化,在他的書籍中不僅闡釋了如何將復雜的問題分解為更為簡單的部分并加以解決,也闡釋了沿用至今的“算數(shù)運算”“關系運算”等概念。此后在人類文明的進程中,推進幾何學系統(tǒng)化的歐幾里德算法、“軟件之母”Ada Byron的程序設計流程圖、抽象了數(shù)學計算過程的圖靈機,以及“Pascal創(chuàng)始者”Nicklaus Wirth提出的“算法+數(shù)據(jù)結構=程序”等,每一次探索與進步都堅實了算法的應用基礎。當人類從工業(yè)社會、信息化社會步入數(shù)字經(jīng)濟時代之后,依托高速互聯(lián)的網(wǎng)絡、大數(shù)據(jù)存儲及計算能力,算法已融入個人的吃穿住行、企業(yè)的生產(chǎn)運營和政府的公共治理之中。
筆者對2000年~2021年國內(nèi)外關于算法治理、算法規(guī)制的學術論文成果進行檢索分析。國外文獻數(shù)據(jù)來自Web of Science核心合集數(shù)據(jù)庫,為了保證數(shù)據(jù)的全面性,利用專業(yè)檢索,構造檢索式“TS=(algorithm*)AND TS=(governance OR regulation)”、選擇語言“English”、選擇文獻類型“Article”,選擇時間截至“2021年”,最終獲取到828篇國外文獻。國內(nèi)文獻數(shù)據(jù)來自中國知網(wǎng),為了保證數(shù)據(jù)的全面性,利用專業(yè)檢索,構造檢索式“SU='算法'*('治理'+'規(guī)制')”,選擇CSSCI期刊為檢索范圍,選擇時間截至“2021年”,最終獲取到526篇國內(nèi)文獻。每年中外發(fā)表的論文數(shù)量變化的整體趨勢如圖1所示。綜合來看,國外的研究起步早于國內(nèi),文章數(shù)量多于國內(nèi)。國內(nèi)外在算法治理領域的研究都是從2017年開始顯著增加,這與2016年是算法編輯超越人工編輯的拐點之年密切相關,更佐證了算法技術應用廣度與深度不斷拓展的現(xiàn)實。
聚焦國內(nèi)算法治理問題,研究發(fā)現(xiàn),國內(nèi)相關研究中最熱關鍵詞是“人工智能”,該關鍵詞節(jié)點的“原點”最大,代表算法治理中與人工智能相關的研究最多。在國內(nèi)研究排名前20的關鍵詞中,有5個詞與“算法”關聯(lián),分別是算法歧視、算法風險、算法規(guī)制、算法權力和算法倫理,說明學術界非常關注算法風險的成因、算法風險的類型和治理措施探索;有6個詞與“治理”關聯(lián),分別是“治理”、“數(shù)據(jù)治理”、“社會治理”、“協(xié)同治理”、“技術治理”和“政治治理”,這說明當前針對算法應用的治理問題研究不是只停留在微觀層面,也在中觀和宏觀層面都有所涉及。
算法治理的研究重點。國內(nèi)外關于算法治理的相關研究主要聚焦在傳播學、社會學、政治經(jīng)濟學、經(jīng)濟學和法學等領域,表1列示了代表性學者的研究觀點。
從傳播學的視角看,算法的直接影響是產(chǎn)生信息繭房(Information Cocoons)、回聲室效應(Echo Chamber)和信息過濾泡(Filter Bubble)。這三個概念均指因算法支撐的數(shù)據(jù)分析及內(nèi)容精準推送,在無形的網(wǎng)絡空間中打造了相對封閉、高度同質(zhì)化的信息空間,人們的視界被熟悉的內(nèi)容和思維所限制并進一步固化,甚而這種固有之見會被推向極端形成群體極化(Group Polarization)。
從社會學和政治經(jīng)濟學的視角看,盡管算法技術并非數(shù)字鴻溝、數(shù)字勞動、個人隱私保護等問題存在的唯一因素,但算法應用使得橫亙在互聯(lián)網(wǎng)觸達者和互聯(lián)網(wǎng)無法觸達者之間的橫向數(shù)字鴻溝,政府、企業(yè)、個人等在縱向管理關系上因?qū)?shù)據(jù)(信息)掌握程度和決策能力不同而導致的縱向數(shù)字鴻溝等更加顯著;算法應用也令有酬和無酬的數(shù)字勞動者的勞動付出被機器判斷與指令控制,從而數(shù)字勞動被進一步商品化和資本化;算法應用也會因隱私(數(shù)據(jù))主體喪失了控制權從而產(chǎn)生隱私泄漏等風險。
從經(jīng)濟學的角度看,泛在的網(wǎng)絡平臺是數(shù)字經(jīng)濟的基礎設施,也是數(shù)字生產(chǎn)要素利用與配置的場域,更是算法得以應用產(chǎn)生價值增值的舞臺。傳統(tǒng)經(jīng)濟中企業(yè)通過協(xié)議或相互暗示可以形成策略行為的共謀,以限制競爭實現(xiàn)合作集團內(nèi)部利益最大化。數(shù)字經(jīng)濟和人工智能環(huán)境下,算法應用更有助于網(wǎng)絡平臺通過收集個人或企業(yè)的基礎信息及行為信息,通過加工分析而洞悉平臺上的價格趨勢、產(chǎn)品結構以及各類參與方的行為特征,令共謀行為更易達成。基于個人用戶基礎數(shù)據(jù)和行為數(shù)據(jù)分析的算法,還可以針對個人用戶的偏好實施動態(tài)的價格歧視或服務歧視,剝奪了更多的消費者剩余。
從法學的角度看,中外學者對算法權力的形成及其對社會資源和數(shù)據(jù)的控制作用進行了分析,同時對算法權力嵌入商業(yè)領域、嵌入公權力程序所形成的異化風險提出了警示,從立法的角度考慮了治理的架構與措施。
伴隨大數(shù)據(jù)分析技術的升級與智能技術的普及,算法應用帶來的風險隱患受到了廣泛關注,很多國家政府通過立法和標準制定對算法應用的相關領域進行實質(zhì)維度的治理與監(jiān)管,不同行業(yè)、企業(yè)也通過建立算法應用的倫理指南來實現(xiàn)自我規(guī)制。
算法應用的潛在風險及形成機理
算法應用的潛在風險。1.算法歧視(Algorithmic Bias)。算法歧視是指通過數(shù)字自動化決策,特定條件的數(shù)據(jù)分析導致對特定數(shù)據(jù)主體產(chǎn)生基于性別、價格及其他條件的不公正對待,濫用排序、大數(shù)據(jù)殺熟等都是算法歧視的直接表現(xiàn)。算法歧視可能是源于算法設計者的文化差異、判斷差異、目的差異,也可能源于算法使用過程中意外出現(xiàn)的突發(fā)結果。不管是哪一種情況,算法歧視都會產(chǎn)生偏見強化、消費者剩余被蠶食、個人自主選擇被剝奪等不利影響。
現(xiàn)實生活中,經(jīng)常使用打車APP的人和使用外賣平臺APP的會員,他們訂車或訂外賣支付的金額有時反而會比不經(jīng)常使用的人更高;又比如企業(yè)在專業(yè)招聘平臺上招人,會存在因算法歧視而導致選擇范圍過窄等問題。根據(jù)2019年北京消費者協(xié)會的社會調(diào)查數(shù)據(jù),有56.92%的被調(diào)查者有過被大數(shù)據(jù)“殺熟”的經(jīng)歷;調(diào)查還顯示購物類、旅游類、打車類等平臺APP均存在著大數(shù)據(jù)“殺熟”現(xiàn)象(劉朝,2022)。
2.算法操縱(Algorithmic Manipulation)。算法操縱是指當算法部分(或全部)替代“人”成為發(fā)出指令和進行決策的主體時,數(shù)據(jù)(信息、隱私)的所有者、企業(yè)決策主體、勞動主體喪失了控制權,會造成信息繭房、回音室效應、信息過濾泡以及隱私泄漏等問題。
針對消費者的算法操縱包括新聞、文娛、廣告等推送主要依靠對用戶行為的數(shù)據(jù)分析,算法推斷用戶偏好并只呈現(xiàn)該種類內(nèi)容,比如Facebook的新聞投喂算法(News Feed Algorithm),這使得信息繭房、回音室效應、信息過濾泡等構筑“信息隔離空間”的效能大大增強;與此同時,在算法操縱對個人用戶基本數(shù)據(jù)和行為數(shù)據(jù)的收集、分析、預測和使用過程中,因數(shù)據(jù)(信息、隱私)主體喪失了控制權,有可能導致個人數(shù)據(jù)或隱私被泄漏和不當利用。
針對勞動者的算法操控,最直接的表現(xiàn)就是對數(shù)字勞動的“剝削”。作為工具革命代表的算法能夠?qū)?shù)字勞動的價值精準計量和控制,比如外賣騎手走哪條線路能夠最有效率地送出外賣,粉絲收看視頻的完播率、轉(zhuǎn)發(fā)數(shù)量和評論數(shù)量能夠創(chuàng)造多少流量價值等。數(shù)字技術通過對數(shù)字勞動的屬性、行為計算出最佳方案,并以一種可見或不可見的方式推進各類數(shù)字勞動去“行動”,數(shù)字勞動所創(chuàng)造的信息內(nèi)容、流量以及生產(chǎn)效率,部分或全部地無償參與資本擴張與增值過程。
針對同業(yè)競爭者的算法操縱集中地體現(xiàn)在網(wǎng)絡平臺通過算法設置條件,控制搜索結果或排名呈現(xiàn),構筑了市場進入壁壘,當然算法操縱也會導致同業(yè)競爭企業(yè)的數(shù)據(jù)(信息)被泄漏或不當利用。算法操縱破壞了公平競爭,同時也給消費者帶來了不良體驗。比如韓國最大的搜索引擎Naver在2020年利用搜索服務禁止其內(nèi)容供應商與它的競爭對手合作,并將自己的產(chǎn)品設置在搜索結果的高排名中,將競爭對手的產(chǎn)品設置在低排名中,這種既欺騙消費者又阻礙公平競爭的行為被韓國公平貿(mào)易委員會(Korea Fair Trade Commission, KFTC)罰款280.2億韓元。
3.算法協(xié)同(Algorithmic Collaboration)。協(xié)同行為(共謀行為)是在特定產(chǎn)業(yè)中多個企業(yè)通過協(xié)議或暗示,采取共同限制價格、限制產(chǎn)量、控制銷售渠道等一致性行為來壓制競爭,獲得超額壟斷利潤的策略。在數(shù)字經(jīng)濟時代,數(shù)據(jù)、算法、算力已經(jīng)貫穿了所有的生產(chǎn)要素和各類社會經(jīng)濟活動,基于互聯(lián)網(wǎng)平臺的運營企業(yè)和平臺內(nèi)參與企業(yè)均有能力對消費者、競爭同行的大數(shù)據(jù)進行收集與分析,并可自動地形成在價格、服務標準或產(chǎn)量上的共謀。
英國學者阿里爾·扎拉奇(Ariel Ezrachi)和莫里斯·E·斯圖克(Maurice E. Stucke)將算法協(xié)同(共謀)分為四類:1)信使型共謀是通過分享算法傳遞的信息達成對價格或銷售條件等的共謀,算法的角色類似“信使”;2)軸輻型共謀最為常見,是指作為平臺的運營企業(yè)(平臺樞紐)利用算法形成價格指導(車軸),協(xié)同平臺其他參與企業(yè)(輻條)形成上下游縱向共謀,或作為平臺參與企業(yè)(輻條)之間在平臺樞紐的影響形成下游橫向的共謀,從而封閉市場成立,限制了競爭;3)預測型共謀需要依靠更智能的算法,由算法(特別是價格算法)充當企業(yè)高管的代理人角色,動態(tài)監(jiān)控市場價格的變化,通過信息差來獲得定價優(yōu)勢;4)自主型共謀是在機器學習不斷深化的過程中,算法可以完成自我學習與自我決策的不斷優(yōu)化,形成了自動探索優(yōu)化利潤的路徑,從而成為操縱市場的力量,盡管目前自主型共謀還處于概念和實驗階段,但其危害值得我們更多關注。
在現(xiàn)實中,亞馬遜網(wǎng)站上的書商因定價算法設計上的漏洞,其銷售的書籍定價追隨用戶的留言與評價機械地發(fā)生并無限循環(huán),導致一本普通的生物遺傳學教科書的定價高達2000多萬美金,這是信使型共謀的典例;2016年歐盟法院審理的E-Turas案是E-Turas這家線上旅游預訂系統(tǒng)通過對所有會員單位的報價信息分析,自動將折扣限制在3%以內(nèi),而不論成員單位的自我價格折扣是多少,這是一種典型的軸輻型共謀。
4.算法黑箱(Algorithmic Black Box)。“黑箱”是一種隱喻,指存在于人工智能深度學習的輸入與輸出之間,難以為外界所觀察和理解的隱層。算法設計者和算法應用者作為專業(yè)人士對算法內(nèi)容和機制會有更多了解,但非專業(yè)人士只能觀察到算法系統(tǒng)的輸入與輸出,很難掌握算法的內(nèi)容與邏輯。算法“黑箱”對多數(shù)主體或個人是具有不透明性和不公開性的,這種不透明性和不公開性必然導致數(shù)據(jù)(信息)的不可控,而數(shù)據(jù)(信息)的不可控又加劇了輸出結果與事實相悖、或算法決策責任性缺失,關聯(lián)地或可能侵犯公眾知情權和自主決策權,威脅個人信息安全,甚至可能引發(fā)公共數(shù)據(jù)資源的使用危機。算法黑箱也使算法歧視、算法操縱和算法共謀等以更隱蔽的狀態(tài)產(chǎn)生風險蔓延。
算法應用存在風險的機理。OECD將算法分為四類:一是“監(jiān)控式算法”(Monitoring Algorithms),指按既定目標,利用數(shù)據(jù)(內(nèi)容信息)爬取技術,通過數(shù)據(jù)收集完成監(jiān)控過程,在監(jiān)控式算法使用過程中,“人”是發(fā)出指令的控制主體和進行決策的主體,算法只是工具;二是“平行式算法”(Parallel Algorithms),依然是根據(jù)既定目標通過特定算法對數(shù)據(jù)進行收集、分析和監(jiān)控,“人”是發(fā)出指令的控制主體,但通過算法設計讓渡了部分“決策權”給算法;三是“信號式算法”(Signaling Algorithms),是在算法對數(shù)據(jù)收集、分析和預測的基礎上,按照設計程序可以自動發(fā)布信號和處理信號,此類算法已開始對“人發(fā)出指令和進行決策的功能”產(chǎn)生部分的替代;四是“自我學習式算法”(Self-learning Algorithms),是在人工智能的相關技術加持下,擁有智能認知的算法可以實現(xiàn)從發(fā)出指令到完成決策的全過程,具有了對“人發(fā)出指令和進行決策的功能”完全替代的可能性。
不同類型的算法經(jīng)由設計和實施,對算法應用潛在風險影響不同(如圖2所示):監(jiān)控式算法不存在發(fā)出指令和完成決策的機器替代,主要功能是收集和分析數(shù)據(jù),并產(chǎn)生導向型的數(shù)據(jù)輸出,因此它是產(chǎn)生基于基礎數(shù)據(jù)和基于行為數(shù)據(jù)的算法歧視的主要助力,同時監(jiān)控式算法也會加劇信息繭房、回聲室效應、信息過濾泡和信使型共謀所產(chǎn)生的風險;平行式算法的指令發(fā)出主體仍然是人,但部分決策控制權出現(xiàn)向算法的轉(zhuǎn)移,這種算法的輸出背離事實的可能性會推動基于行為數(shù)據(jù)的算法歧視產(chǎn)生、信息過濾泡的構建、個人隱私和公共數(shù)據(jù)的泄漏等,平行式算法的自動分析與決策過程也便利了軸輻型共謀的達成;信號式算法已開始對“人發(fā)出指令和進行決策的功能”產(chǎn)生部分的替代,因此與算法對象間的互動更為密切,對于具主動性的數(shù)字勞動進行控制、形成預測型共謀和算法黑箱,信號式算法更有效率;自我學習式算法更加智能,算法能夠獨立完成發(fā)出指令并優(yōu)化決策,因此基于機器學習的自主型共謀和更高難度的算法黑箱有了實施支撐。
當作為技術的算法,通過數(shù)據(jù)分析和輸出結果導向?qū)?jīng)濟活動或社會活動主體的決策與行為產(chǎn)生了一定程度的支配力與控制力,特別是智能技術的深入融合不斷增強算法的自我學習能力,算法可以部分甚至完全替代人這個主體“發(fā)出指令”“完成決策”,進一步地算法對生產(chǎn)力和生產(chǎn)關系都會產(chǎn)生影響,從單純的技術工具逐漸轉(zhuǎn)變?yōu)榫哂兄黧w性的“技術權力者”。而當這種技術權力與商業(yè)程序相結合時,形成了“算法(技術權力)——數(shù)據(jù)收集、分析與結果輸出——經(jīng)濟資源控制+行為影響——社會利益分配重構(資本權力)——市場失靈”的作用機制路徑;當這種技術權力與行政程序相結合時,則有可能導致“算法(技術權力)——數(shù)據(jù)收集、分析與結果輸出——公共資源(含數(shù)據(jù)/信息)控制——政府失靈”的作用機制路徑。
算法應用治理體系構建
對算法應用進行治理的難點。算法其實是一種分析利用數(shù)據(jù)的智能手段,它將數(shù)據(jù)輸入(原因)通過既定的程序變?yōu)閿?shù)據(jù)輸出(結果)。首先,算法應用的過程中,人們知道“因和果”,卻難以了解過程,這種算法的不透明性源于數(shù)據(jù)安全性的考慮,也源于技術的專業(yè)性,更源于智能技術的應用實現(xiàn)了“機器自我學習”,可以說算法的不透明性與生俱來,這給治理帶來了難題。其次,算法的研發(fā)具有物理上的隱蔽性、算法的應用具有廣泛的分散性,當深度學習嵌入算法推動人的“決策”向機器讓渡,對算法潛在風險的評估和責任主體的確認就變得更為困難。最后,算法的應用基于各領域的平臺,平臺是聯(lián)接著不同主體的多邊市場,算法應用涉及的潛在風險既涉及個人用戶、平臺運營企業(yè)(平臺樞紐)和平臺參與企業(yè),也涉及平臺上的數(shù)字勞動者和政府管理部門,算法治理主體和算法治理對象都是多元的,相較于其他領域的治理問題,算法治理的難度更大。
算法應用治理體系構建。1.算法治理體系的構成要件?;谒惴ㄖ卫碇黧w和對象的多元特點,算法治理的復雜性,算法治理需要構建體系。這需要厘清治理主體與治理對象之間的關系和職責,同時考慮市場失靈和政府失靈的雙重影響,通過治理主體的一系列工具措施與治理對象之間形成有效的互動,實現(xiàn)治理目標。算法治理體系的構成要件包含治理主體、治理對象、治理工具與措施。
需要說明的是,算法治理的主體和治理對象并非截然分開的,算法治理主體有時與算法治理對象具有一致性。比如算法治理的主體包括相關政府部門、行業(yè)協(xié)會、第三方社會組織等,但這些主體也會使用算法進行數(shù)字資源的使用與控制,所以要接受公眾的監(jiān)督;算法治理的對象如算法設計開發(fā)方、使用算法的平臺運營企業(yè)、平臺參與企業(yè)、公共組織等,也會采取自我規(guī)制來實現(xiàn)技術倫理責任。傳統(tǒng)的治理工具主要依賴于政府干預(外部規(guī)制)和自我治理(自我規(guī)制)等具體措施工具,前者是治理主體通過治理工具與措施從外部設定標準等對治理對象進行引導和監(jiān)管,比如市場準入,技術標準,正面及負面清單等;后者是治理對象基于社會責任、倫理道德等對自身施以主動管理的行為,比如企業(yè)責任、技術和道德倫理原則等。算法治理主體通過外部治理、算法治理對象通過自我治理,以及近年來理論界與實踐界關注度不斷提高的對治理過程本身或治理主體的“元規(guī)制”,在明晰各類主體權責和應承擔技術倫理責任的基礎上,形成多元化主體協(xié)同機制、利益均衡機制和敏捷治理機制,實現(xiàn)算法治理體系的穩(wěn)健運行。
2.算法治理體系的運行機制。一是多主體協(xié)同機制。算法治理首先需要相關政府部門采取由上而下的行政賦能,通過立法立規(guī)明晰不同算法應用所涉及的各類主體的權責,通過系列的工具和措施來實現(xiàn)對算法的評估、對算法的問責、對算法的審計,建立責罰相當?shù)闹卫砜蚣?。其次,厘清算法治理主體與治理對象間的關系,提高相關企業(yè)、社會組織和公眾對算法應用的技術及倫理的認知與理解,推動自下而上的多主體、多元化的參與進程。在這樣的機制下,可以充分調(diào)動算法所涉及的各類主體的積極性與能動性,形成對公共部門作為單一治理主體的有益補充。
二是利益均衡機制。算法治理工作的目的是保障和實現(xiàn)公共利益,而公共利益意味著一定社會條件下或特定范圍內(nèi)不特定多數(shù)主體利益相一致。利益均衡首先要明確主體利益,然后建立主體利益規(guī)范機制。算法治理涉及的主體利益既包括用戶個體和數(shù)字勞動者的隱私權、他們對算法的知情權和要求解釋權,也包括算法設計者或控制方應享有合法使用信息與數(shù)據(jù)的權利,以及在知識產(chǎn)權保護下獲得算法應用的收益權,還包括公共部門合法使用算法的權利等。利益均衡機制需要依靠立法的權威和社會性的、經(jīng)濟性的規(guī)制手段來協(xié)調(diào)各方主體,在利益共存和相容的基礎上通過科學治理程序和具體治理工具解決制衡與保護等問題。
三是敏捷治理(Agile Governance)機制。如果說多主體協(xié)同機制與利益均衡機制更多地是從算法涉及的治理主體與治理對象的復雜性出發(fā)構建治理體系的原則與基礎,那么敏捷治理機制則是從算法治理的效率與效果出發(fā)推動算法治理體系可持續(xù)運行。當數(shù)字技術應用超越了傳統(tǒng)治理體系范疇,敏捷治理機制是為應對技術帶來的新風險和新挑戰(zhàn)而開展的新型治理。敏捷治理機制依托“政府為核心+多元參與主體”的模式,通過跨部門合作形成自上而下與自下而上相結合的治理程序;從對需求的被動響應轉(zhuǎn)向?qū)π枨蟮闹鲃禹憫瑥慕Y果導向的治理轉(zhuǎn)向過程導向的治理,在不斷的自反性學習過程中,動態(tài)調(diào)整并優(yōu)化治理工具與措施。盡管敏捷治理在理論研究和實踐應用中仍存在目標與效果的差距,但不可否認的是,集合各方力量、以迅速響應和不斷自反性學習為原則的敏捷治理機制,可以有效地推進算法治理中多主體協(xié)同與利益均衡的實現(xiàn)。
3.算法治理的措施優(yōu)化。推動以上三種機制并行,算法治理的措施優(yōu)化應堅持過程導向和主動響應需求的原則,引入“元規(guī)制”理念,強調(diào)多主體權責的明確和系統(tǒng)參與,加強事前、事中和事后全過程的管理。
首先,算法治理的措施優(yōu)化體現(xiàn)在外部治理和自我治理基礎上元規(guī)制理念的引入。“元規(guī)制”是指規(guī)制本身成為被規(guī)制的對象(Bronwen Morgan, 2003)。顯然,元規(guī)制不僅對治理主體進行規(guī)制,也強調(diào)對治理過程的管控。實踐中元規(guī)制的主旨不在于對算法風險個案解決,而在于對算法應用進行整體的技術標準指引,并對“算法類型—算法風險”的生成機制予以過程性管理的回應。例如,國際標準化組織已于2018年開始制定針對消費者數(shù)據(jù)信息保護的標準,旨在改善算法帶來的“價格歧視”問題;2019年,德國數(shù)據(jù)倫理委員會發(fā)布“針對數(shù)據(jù)和算法的建議”,建立數(shù)字服務企業(yè)使用數(shù)據(jù)的5級風險評級制度,對不同風險類型的企業(yè)采取不同的監(jiān)管措施。目前,我國已出臺的《中華人民共和國個人信息保護法》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》進一步明確算法推薦服務商在保護個人信息、防止過度消費、秉持道德倫理等方面的責任和算法需備案、定期審核等要求,對打破算法黑箱大有裨益。但目前我國尚缺乏對不同類型算法的技術標準和對算法風險分級分類管理的標準,從元規(guī)制視角出發(fā),這些標準應盡快出臺,以實現(xiàn)將治理原則和目標融入技術開發(fā)和應用中,推動治理對象的自我治理和治理過程的全覆蓋。
其次,算法規(guī)制的措施優(yōu)化體現(xiàn)在對算法應用全過程的管理。在《中華人民共和國個人信息保護法》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》頒布之前,我國對于算法的治理較明顯地體現(xiàn)為事后治理,比如2018年8月頒布的《電子商務法》第十九條規(guī)定“電子商務經(jīng)營者搭售商品或者服務,應當以顯著方式提醒消費者注意,不得將搭售商品或者服務作為默認同意的選項”,對這一條款的違規(guī)處罰上限為50萬元罰款。再比如2021年2月出臺的《國務院反壟斷委員會關于平臺經(jīng)濟領域的反壟斷指南》中明確指出“認定平臺經(jīng)濟領域的濫用市場支配地位行為,適用《反壟斷法》第三章和《禁止濫用市場支配地位行為暫行規(guī)定》”,認定過程及行政處罰等也是通過舉報、調(diào)查等事后追索。因為算法技術的迭代更新,事后治理或追責往往無法有效應對算法應用引致風險的廣泛性和破壞性,增強事中,特別是事前的治理才有利于前瞻性地防范算法風險的產(chǎn)生。2021年12月出臺的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》強調(diào)“算法風險防控機制備案”“建立健全算法機制機理審核與評估”“驗證算法機制機理、模型、數(shù)據(jù)和應用結果”等,這已充分說明我國已逐漸實現(xiàn)算法問責前置,推進事前和事中治理工作。在此基礎上,需進一步探索算法內(nèi)容(原理)的備案路徑、拓展第三方算評估(審計)的范圍等,讓原則與要求具有落地基礎;同時要關注算法影響的平臺參與企業(yè)、消費者、數(shù)字勞動者等多重個體,可以通過分類別的負面清單方式,阻斷算法風險的產(chǎn)生。
總體而言,算法應用產(chǎn)生的風險是多維度的,是算法應用中技術權力轉(zhuǎn)化為資本權力和對公共資源的控制,從而導致了市場失靈或政府失靈。技術本無善惡,是具有中立性的工具和手段。技術應用達到何種目的,產(chǎn)生何種影響,均有賴于使用和控制技術的主體。因此,發(fā)揮算法推動社會向善發(fā)展的作用,需要深入分析算法應用產(chǎn)生風險的特征以及風險產(chǎn)生的機理,并推進多元主體協(xié)同、利益均衡和敏捷治理機制,通過動態(tài)優(yōu)化治理工具與措施,構筑“負責任的算法”的基石。
參考文獻
胡泳,2015,《新詞探討:回聲室效應》,《新聞與傳播研究》,第6期。
陳昌鳳、霍婕,2018,《權力遷移與人本精神:算法式新聞分發(fā)的技術倫理》,《新聞與寫作》,第1期。
[美]伊萊·帕里澤,2020,《過濾泡:互聯(lián)網(wǎng)對我們的隱秘操縱》,方師師、楊媛譯,北京:中國人民大學出版社。
張愛軍、梁賽,2019,《網(wǎng)絡群體極化的負面影響和規(guī)避措施》,《學術界》,第4期。
郭小平、秦藝軒,2019,《解構智能傳播的數(shù)據(jù)神話:算法偏見的成因與風險治理路徑》,《現(xiàn)代傳播》,第9期。
單勇,2019,《跨越“數(shù)字鴻溝”:技術治理的非均衡性社會參與應對》,《中國特色社會主義研究》,第5期。
Brown B., 2014, "Will Work For Free: The Biopolitics of Unwaged Digital Labour", TripleC (Cognition, Communication, Co-Operation): Open Access Jo, 12(2).
Nixon B., 2014, "Toward a Political Economy of 'Audience Labour' in the Digital Era", TripleC, 12(2), pp. 713-734.
吳鼎銘,2017,《網(wǎng)絡“受眾”的勞工化:傳播政治經(jīng)濟學視角下網(wǎng)絡“受眾”的產(chǎn)業(yè)地位研究》,《國際新聞界》,第6期。
郭春鎮(zhèn)、馬磊,2020,《大數(shù)據(jù)時代個人信息問題的回應型治理》,《法制與社會發(fā)展》,第2期。
Ezrachi A.; Stucke M. E., 2016, Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy, Cambridge MA: Harvard University Press, pp. 35-70.
Kirsten M., 2018, "Ethical Implications and Accountability of Algorithms", Journal of Business Ethics, 3, pp. 1-16.
黃曉偉,2019,《互聯(lián)網(wǎng)平臺壟斷問題的算法共謀根源及協(xié)同治理思路》,《中國科技論壇》,第2期。
John Cheneyey-lippold, 2011, "A New Algorithmic Identity: Soft Biopolityics and the Modulation of Control", Theory, Culture & Society, 28, pp. 164-168.
Zuboff S., 2015, "Big Other: Surveillance Capitalism and the Prospects of an Informal Civilization", Journal of Information Technology, 30, pp. 75-89.
鄭戈,2018,《算法的法律與法律的算法》,《中國法律評論》,第2期。
張凌寒,2019,《算法權力的興起、異化及法律規(guī)制》,《法商研究》,第6期。
劉朝,2022,《算法歧視的表現(xiàn)、成因與治理策略》,《人民論壇》,第2期。
[英]阿里爾·扎拉奇(Ariel Ezrachi)、[英]莫里斯·E·斯圖克(Maurice E. Stucke),2018,《算法的陷阱》,余瀟譯,北京:中信出版社,第130~155頁。
Morgan B., 2003, Social Citizenship in the Shadow of Competition: The Bureaucratic Politics of Regulatory Justification, Aldershot, England: Ashgate Publishing Ltd, p. 2.
責 編/張 曉
金雪濤,中國傳媒大學國際傳媒教育學院院長,中國傳媒大學經(jīng)濟與管理學院教授、博導。研究方向為產(chǎn)業(yè)經(jīng)濟學,數(shù)字經(jīng)濟和傳媒經(jīng)濟。主要著作有《文化產(chǎn)業(yè)投融資:理論與案例》《數(shù)字媒體經(jīng)濟學》《中國電影產(chǎn)業(yè)國際競爭力測度研究》等。
Algorithmic Governance: System Building and Measures
Jin Xuetao
Abstract: If data is the core factor of production in the digital economy era, then algorithms are the operation foundation for making it an asset and capitalizing on its value. By empowering various fields, the digital technology gives birth to new products, new organizational models, new business models and new industrial formats. But at the same time, it also brings potential risks such as algorithmic bias, algorithmic manipulation, algorithmic collaboration, algorithmic black box and so on. Different types of algorithms have different effects on the potential risks of algorithmic application through design and implementation and may lead to government failure and market failure. To explore the architecture of algorithmic governance surrounding "the governing party - the governed - governance tools and measures", this article suggests integrating the three mechanisms of multi-party collaboration, interest balance and agile governance and making use of them by optimizing algorithmic governance measures on the basis of the concepts of meta regulation and whole process management.
Keywords: algorithmic risks, algorithm types, governance system, governance measures