青青青手机视频在线观看,中文字幕老视频平台网站,国产在线精品观看一区,天天干天天草天天av,2023草草影院最新入口,日本黄色网站在线视频,亚洲日本欧美产综合在线

網(wǎng)站首頁 | 網(wǎng)站地圖

大國(guó)新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

算法歧視的表現(xiàn)、成因與治理策略

【摘要】隨著大數(shù)據(jù)和人工智能的興起,機(jī)器學(xué)習(xí)等算法在工業(yè)生產(chǎn)和商業(yè)活動(dòng)中被逐步推廣和應(yīng)用,但在此過程中產(chǎn)生的算法歧視問題也愈發(fā)普遍,并引起了廣泛關(guān)注和思考。本文對(duì)算法歧視的眾多表現(xiàn)及成因進(jìn)行探討,并據(jù)此提出算法歧視問題的治理策略。

【關(guān)鍵詞】算法歧視 大數(shù)據(jù)“殺熟” 治理策略 【中圖分類號(hào)】TP304.6 【文獻(xiàn)標(biāo)識(shí)碼】A

算法歧視是以算法為手段實(shí)施的歧視行為,主要指在大數(shù)據(jù)背景下、依靠機(jī)器計(jì)算的自動(dòng)決策系統(tǒng)在對(duì)數(shù)據(jù)主體做出決策分析時(shí),由于數(shù)據(jù)和算法本身不具有中立性或者隱含錯(cuò)誤、被人為操控等原因,對(duì)數(shù)據(jù)主體進(jìn)行差別對(duì)待,造成歧視性后果。算法歧視問題不僅使算法無法充分發(fā)揮其正向效用,也成為大數(shù)據(jù)科學(xué)及人工智能技術(shù)推廣中不可忽視的障礙。對(duì)于用戶而言,算法歧視問題侵害用戶個(gè)人權(quán)益及尊嚴(yán)感。對(duì)于企業(yè)而言,一方面,算法歧視可能會(huì)導(dǎo)致企業(yè)的直接經(jīng)濟(jì)損失,比如信息推送不精確、廣告投放對(duì)象偏差、人才招聘選擇范圍過窄等問題;另一方面,算法歧視問題會(huì)通過影響用戶滿意度而間接影響企業(yè)的收益及企業(yè)聲譽(yù)。因此,算法歧視問題對(duì)用戶和企業(yè)都可能帶來不利影響。另外,算法“黑箱”等信息不對(duì)稱性的存在導(dǎo)致歧視現(xiàn)象潛藏得更加深入而不易被察覺,也給治理算法歧視問題帶來了新的挑戰(zhàn)。

隨著信息科技將持續(xù)迅猛發(fā)展,解決算法歧視問題對(duì)于發(fā)揮算法應(yīng)用對(duì)生產(chǎn)生活等各領(lǐng)域高效發(fā)展的正向作用具有重要的現(xiàn)實(shí)意義。本文將對(duì)金融借貸平臺(tái)借貸歧視、平臺(tái)型企業(yè)大數(shù)據(jù)“殺熟”、人工智能相貌歧視、AI機(jī)器人發(fā)表歧視性言論等算法歧視問題的表現(xiàn)進(jìn)行闡述;并對(duì)算法歧視問題背后的成因進(jìn)行歸納分析,主要包括算法思維的固有缺陷、算法設(shè)計(jì)者的主觀歧視思想、算法設(shè)計(jì)過程中的數(shù)據(jù)及技術(shù)漏洞、算法“黑箱”等信息不對(duì)稱性的存在等;最后基于成因分析從IT行業(yè)、用戶及政府、媒體等角度探討算法歧視問題的治理路徑。

算法歧視的表現(xiàn)

隨著算法在金融、互聯(lián)網(wǎng)服務(wù)等行業(yè)的深入運(yùn)用,金融借貸平臺(tái)借貸歧視、互聯(lián)網(wǎng)平臺(tái)大數(shù)據(jù)“殺熟”等算法歧視現(xiàn)象屢見不鮮;而算法在日常生活中的廣泛應(yīng)用,常用軟件以及AI聊天機(jī)器人等也因算法歧視問題引起熱議。

首先,金融借貸平臺(tái)借貸歧視是社會(huì)歧視思想的延伸。在普惠金融蓬勃發(fā)展的今天,歧視現(xiàn)象仍然在金融行業(yè)普遍存在。金融網(wǎng)貸平臺(tái)避免了金融機(jī)構(gòu)與用戶面對(duì)面接觸,本應(yīng)使借貸變得更公平。然而,隨著大數(shù)據(jù)挖掘算法與金融行業(yè)的深層融合,算法能夠更輕易地挖掘到用戶的私人信息,并根據(jù)這些信息對(duì)用戶的借貸限額及借貸利率等進(jìn)行差別對(duì)待,這使得網(wǎng)絡(luò)金融借貸平臺(tái)歧視行為與線下金融借貸機(jī)構(gòu)幾乎別無二致。加州大學(xué)伯克利分校教授在對(duì)網(wǎng)貸平臺(tái)進(jìn)行研究時(shí)發(fā)現(xiàn),算法和線下借貸一樣會(huì)對(duì)借款人進(jìn)行歧視。該研究選取美國(guó)最大的借貸機(jī)構(gòu)之一的Quicken Loans在線平臺(tái)作為案例研究對(duì)象。研究發(fā)現(xiàn),在線下借貸機(jī)構(gòu)受到歧視的群體在金融借貸平臺(tái)上仍然會(huì)遭到歧視,且他們的在線貸款申請(qǐng)利率一般會(huì)比普通群體高出5.3個(gè)基點(diǎn),這與其在線下借貸機(jī)構(gòu)貸款時(shí)需要額外支付的5.6個(gè)附加點(diǎn)十分相近。而這種利率差別并不是由信譽(yù)差異導(dǎo)致的,而是由算法歧視造成的。

其次,大數(shù)據(jù)“殺熟”是互聯(lián)網(wǎng)平臺(tái)逐利思想的體現(xiàn)。大數(shù)據(jù)時(shí)代算法歧視問題的典型表現(xiàn)就是互聯(lián)網(wǎng)平臺(tái)對(duì)老用戶“殺熟”。大數(shù)據(jù)“殺熟”指互聯(lián)網(wǎng)平臺(tái)利用大數(shù)據(jù)挖掘算法獲取用戶信息并對(duì)用戶進(jìn)行“畫像”分析,進(jìn)而對(duì)不同消費(fèi)者群體提供差別性報(bào)價(jià),以達(dá)到銷售額最大化或吸引新用戶等目的的行為。這種企業(yè)“殺熟”現(xiàn)象的本質(zhì)是通過一定的算法篩查,對(duì)用戶群體進(jìn)行分類,形成一套端口多套服務(wù)的模式。而這里的“熟”指的是那些已經(jīng)被大數(shù)據(jù)挖掘算法充分掌握信息的用戶。此前,一篇關(guān)于大數(shù)據(jù)“殺熟”的文章沖上微博熱搜,文章作者發(fā)現(xiàn),使用某外賣平臺(tái)APP在同一時(shí)間同一家店進(jìn)行點(diǎn)餐,會(huì)員的配送費(fèi)反而要比非會(huì)員的配送費(fèi)多4元。隨后作者又查看了附近的其他外賣商家,發(fā)現(xiàn)開通會(huì)員的賬號(hào)普遍比不開通會(huì)員的賬號(hào)多支付1元—5元。事實(shí)上,大數(shù)據(jù)“殺熟”現(xiàn)象不僅僅出現(xiàn)在外賣平臺(tái)上。根據(jù)2019年北京消費(fèi)者協(xié)會(huì)的社會(huì)調(diào)查數(shù)據(jù),有56.92%的被調(diào)查者有過被大數(shù)據(jù)“殺熟”的經(jīng)歷,而認(rèn)為大數(shù)據(jù)“殺熟”現(xiàn)象很普遍的被調(diào)查者比例高達(dá)88.32%。另外,調(diào)查顯示購(gòu)物類、旅游類、打車類等平臺(tái)APP均存在著大數(shù)據(jù)“殺熟”現(xiàn)象(見圖1)。

QQ圖片20220124111923

再次,修圖算法歧視爭(zhēng)端是數(shù)據(jù)集引發(fā)的算法歧視。人工智能技術(shù)的普及不僅讓人類的生產(chǎn)生活更加便利,也幫助人類將更多難以實(shí)現(xiàn)的事變成現(xiàn)實(shí),滿足了人類的精神慰藉和關(guān)懷需求。例如,人工智能技術(shù)可以幫助人類與逝者“對(duì)話”、陪伴獨(dú)居老人等。然而,一些本意旨在實(shí)現(xiàn)人文關(guān)懷的人工智能技術(shù)反而帶來了算法歧視問題,導(dǎo)致科技的應(yīng)用目標(biāo)無法實(shí)現(xiàn)。例如,杜克大學(xué)推出的一款修圖算法能夠?qū)⒛:掌逦迯?fù),憑借這一功能,用戶可以將具有紀(jì)念意義的舊照片進(jìn)行復(fù)原。然而,一位用戶將一張模糊人像照片輸入該算法后,得出的照片卻與本人的相貌大相徑庭,此事引起美國(guó)網(wǎng)民的激烈討論。民眾認(rèn)為該算法帶有嚴(yán)重的外貌歧視性,由此引發(fā)了人們對(duì)人工智能技術(shù)的質(zhì)疑。對(duì)此,圖靈獎(jiǎng)得主Yann Lecun從專業(yè)角度給出了答案:該修圖算法結(jié)果偏差主要原因在于數(shù)據(jù)偏差,該修圖算法進(jìn)行預(yù)訓(xùn)練的數(shù)據(jù)集儲(chǔ)存的人像照片來源有限,復(fù)原的照片外貌特征與數(shù)據(jù)集里照片相似,導(dǎo)致算法最終得出的照片與本人差距較大。

最后,AI聊天機(jī)器人的歧視性言論是機(jī)器學(xué)習(xí)缺乏信息過濾機(jī)制。隨著人工智能的不斷發(fā)展,AI機(jī)器人被廣泛使用。AI聊天機(jī)器人通過在交互情景中對(duì)信息進(jìn)行學(xué)習(xí)、儲(chǔ)存來模仿人類對(duì)話,進(jìn)而實(shí)現(xiàn)與用戶進(jìn)行交互對(duì)話,并具備協(xié)助用戶對(duì)日常工作進(jìn)行記錄和信息搜索等功能。一旦AI聊天機(jī)器人在學(xué)習(xí)過程中學(xué)習(xí)到了帶有歧視性的信息,就會(huì)引發(fā)算法歧視問題。由韓國(guó)研發(fā)的一款A(yù)I聊天機(jī)器人能夠通過在交互情景中學(xué)習(xí)對(duì)話而能像真人一樣和用戶聊天。然而讓人意外的是,這款A(yù)I聊天機(jī)器人在與用戶進(jìn)行交互的過程中,發(fā)表了歧視殘疾人、孕婦、同性戀等群體的不當(dāng)言論,而這些觀點(diǎn)正是AI機(jī)器人在與用戶交互的過程中學(xué)習(xí)到的。AI機(jī)器人在未來會(huì)被更廣泛地普及應(yīng)用,AI機(jī)器人發(fā)表言論是否正向積極直接關(guān)系到用戶的使用體驗(yàn)及身心健康,而AI機(jī)器人導(dǎo)致的算法歧視問題也可能會(huì)引發(fā)更嚴(yán)重的社會(huì)歧視問題。

算法歧視的成因

針對(duì)上述算法歧視的問題,現(xiàn)從算法思維的固有缺陷、算法設(shè)計(jì)者的歧視思想、算法設(shè)計(jì)過程中的數(shù)據(jù)及技術(shù)漏洞以及算法“黑箱”等信息不對(duì)稱性等方面對(duì)算法歧視問題的成因進(jìn)行分析。

一是算法思維的固有缺陷。一方面,經(jīng)驗(yàn)普適性與個(gè)例特殊性之間存在矛盾。算法依據(jù)人類所設(shè)置的固定邏輯解決問題,這種固定邏輯通常只能描述普遍適用的經(jīng)驗(yàn)事實(shí),而忽略現(xiàn)實(shí)中的小概率事件。這很容易導(dǎo)致經(jīng)驗(yàn)上的相關(guān)性被算法夸大為必然存在的因果關(guān)系,造成算法邏輯過于絕對(duì),最終導(dǎo)致對(duì)少數(shù)群體的算法歧視。然而,在現(xiàn)實(shí)生活中,人類除了會(huì)根據(jù)經(jīng)驗(yàn)進(jìn)行判斷決策外,還會(huì)對(duì)某些偶然出現(xiàn)的特殊個(gè)例事件隨機(jī)應(yīng)變地做出反常規(guī)決策。例如,人類在經(jīng)驗(yàn)上認(rèn)為高學(xué)歷應(yīng)聘者具備更強(qiáng)的工作能力,因此在招聘平臺(tái)APP上,未達(dá)到職位學(xué)歷要求的應(yīng)聘者會(huì)直接被算法篩選淘汰,導(dǎo)致其無法獲得公平競(jìng)爭(zhēng)的機(jī)會(huì);但對(duì)于線下招聘,即使一些應(yīng)聘者未達(dá)到職位的學(xué)歷要求,但其豐富的工作經(jīng)驗(yàn)或精辟獨(dú)到的見解等優(yōu)勢(shì)都有機(jī)會(huì)讓HR放寬對(duì)職位的學(xué)歷限制而對(duì)其破格錄用。這種反常規(guī)決策通常具有極大的隨機(jī)性和不確定性,因此難以從中總結(jié)出具有規(guī)律性的邏輯思路并形成算法。也就是說,人類只能盡可能地將自己在常見案例中所運(yùn)用的經(jīng)驗(yàn)判斷邏輯形成算法,卻不可能將在特例中運(yùn)用到的反常規(guī)判斷邏輯全部都形成算法。這就導(dǎo)致了算法決策始終與人工決策存在一定差距,這種差距只能被盡可能縮小,卻不可能被徹底消除。

另一方面,算法簡(jiǎn)化及歸類思想與對(duì)象異質(zhì)性存在沖突。為了盡量精簡(jiǎn)快捷地運(yùn)用算法解決問題,算法設(shè)計(jì)者通常會(huì)先將對(duì)象進(jìn)行分類簡(jiǎn)化,進(jìn)而對(duì)不同類別的群體針對(duì)性賦予程序指令。在群體分類及定義的過程中,個(gè)體依據(jù)共性特征被分類,而異質(zhì)性特征卻被忽略。當(dāng)算法對(duì)象是人時(shí),人既具有一定的共性,使其能夠歸納分類為群體,也具有復(fù)雜性、多元性,每個(gè)個(gè)體在各方面的特征都不盡相同。例如,電商平臺(tái)在進(jìn)行產(chǎn)品推送時(shí),可能會(huì)對(duì)女性用戶一味地推送裙子、高跟鞋等商品,這些在傳統(tǒng)意義上為女性消費(fèi)者量身定做的商品并不一定符合全部女性的購(gòu)物偏好。因此,群體的差異性程序指令可能會(huì)使群體在共性上得到公平對(duì)待,卻在特性上受到歧視。這一現(xiàn)象由算法的歸類簡(jiǎn)化思想導(dǎo)致,特別是在大數(shù)據(jù)科學(xué)中應(yīng)用更為普遍。當(dāng)個(gè)體數(shù)量龐大時(shí),個(gè)體異質(zhì)性無法被充分考慮,這是導(dǎo)致少數(shù)個(gè)體被算法歧視的原因之一。

二是算法設(shè)計(jì)者存在主觀歧視思想。一方面設(shè)計(jì)者主觀認(rèn)知偏見。當(dāng)今社會(huì)中,偏見思想仍然普遍存在。算法是人類思想的體現(xiàn),如果算法設(shè)計(jì)者主觀上具有偏見思想并將主觀意愿及隱含偏見寫進(jìn)算法中,就必然會(huì)造成算法歧視問題。不僅如此,隨著大數(shù)據(jù)科學(xué)的普及和應(yīng)用,算法設(shè)計(jì)者能夠更加輕易地獲取到用戶的私人信息,這造成歧視行為更加變本加厲。金融借貸平臺(tái)的借貸歧視等算法歧視現(xiàn)象實(shí)際上就是社會(huì)歧視性思想的體現(xiàn),歸根結(jié)底是由觀念認(rèn)知偏差所引起的,而不是信息科技發(fā)展所帶來的不良后果。事實(shí)上,算法是人類為提高生產(chǎn)生活的便捷程度而創(chuàng)造和設(shè)計(jì)的工具,它固然是一把雙刃劍,但企業(yè)和算法設(shè)計(jì)者以中立的態(tài)度合理地利用算法可以使其更好地發(fā)揮正向效用。另一方面設(shè)計(jì)者逐利思想驅(qū)使。除了主觀認(rèn)知偏見之外,逐利思想也是造成算法歧視的主要原因,其中大數(shù)據(jù)“殺熟”就是逐利思想驅(qū)使導(dǎo)致算法歧視的典型表現(xiàn)。算法設(shè)計(jì)者為了獲取更高的利益,通過提供更優(yōu)越的條件吸引潛在價(jià)值更高的用戶,這無疑使其他用戶遭受不公平待遇。相比于主觀認(rèn)知偏見,逐利思想下被算法歧視的群體更容易通過消費(fèi)等行為突破歧視壁壘,這也正是算法設(shè)計(jì)者設(shè)計(jì)歧視性算法的主要目的之一。也就是說,算法設(shè)計(jì)者通過有意為之的歧視,達(dá)到吸引用戶關(guān)注、刺激用戶消費(fèi)等目的,進(jìn)而為自身創(chuàng)造更大的經(jīng)濟(jì)利益。事實(shí)上這也是人類思想主導(dǎo)下的算法歧視,而不是算法發(fā)展的必然后果。

三是算法設(shè)計(jì)過程中存在數(shù)據(jù)及技術(shù)漏洞。首先是算法選取樣本分布不均。除了設(shè)計(jì)過程中導(dǎo)致算法歧視問題外,數(shù)據(jù)集也是導(dǎo)致算法歧視問題的主要原因之一。與修圖算法的歧視爭(zhēng)端類似,在數(shù)據(jù)采樣過程中若數(shù)據(jù)來源集中于部分群體,而忽略其他群體,那么算法僅能捕捉到被采樣群體的特征,其輸出的信息也僅適用于被采樣群體,而那些未被采樣的群體就有可能成為被歧視的對(duì)象。因此,即便算法具有公正的設(shè)計(jì)思想,若所選取的數(shù)據(jù)樣本分布不均,也會(huì)導(dǎo)致嚴(yán)重的算法歧視問題。其次是機(jī)器學(xué)習(xí)過濾標(biāo)準(zhǔn)過松。具有學(xué)習(xí)功能的算法除了能夠體現(xiàn)算法設(shè)計(jì)者的思想外,還融合了用戶的思想。機(jī)器學(xué)習(xí)算法會(huì)在與用戶交互的過程中學(xué)習(xí)用戶行為,這些學(xué)習(xí)到的用戶行為信息可能會(huì)被儲(chǔ)存并應(yīng)用于類似的交互情景中。盡管機(jī)器學(xué)習(xí)算法的設(shè)計(jì)初衷是通過對(duì)信息和數(shù)據(jù)的學(xué)習(xí),提高輸出信息及數(shù)據(jù)的精準(zhǔn)度。特殊地,對(duì)于AI機(jī)器人等交互式機(jī)器學(xué)習(xí)算法,算法通過學(xué)習(xí)人類行為信息來擴(kuò)充信息庫(kù),進(jìn)而提高AI機(jī)器人對(duì)人類的模仿能力。然而,目前帶有學(xué)習(xí)功能的算法通常缺乏嚴(yán)格的信息甄別和過濾功能,帶有歧視性的信息不能提前被識(shí)別過濾而被一并提供給算法進(jìn)行學(xué)習(xí),算法一旦在這一過程中學(xué)習(xí)并儲(chǔ)存了具有歧視性的信息,就極大可能會(huì)在其他交互情景中輸出帶有歧視性的信息,進(jìn)而導(dǎo)致更嚴(yán)重的算法歧視問題。

四是算法“黑箱”等信息存在不對(duì)稱性。由于算法從輸入數(shù)據(jù)到輸出決策結(jié)果的邏輯過程并不向外界公開,因此形成了算法“黑箱”。用戶在使用算法時(shí)僅能獲知算法運(yùn)行的結(jié)果,而算法使用的數(shù)據(jù)、分析邏輯等關(guān)鍵過程則被算法“黑箱”隱藏,算法的非透明性導(dǎo)致算法歧視更加隱蔽。此外,算法設(shè)計(jì)者由于掌握著大數(shù)據(jù)信息而占據(jù)信息優(yōu)勢(shì),從而能夠更輕易地對(duì)用戶進(jìn)行區(qū)別對(duì)待;而用戶間卻并不了解彼此的信息,且在大多數(shù)情況下用戶只能查看到自己使用算法的運(yùn)行結(jié)果,而不了解其他用戶的運(yùn)行結(jié)果。這導(dǎo)致用戶甚至無法發(fā)現(xiàn)自己已經(jīng)成為了被歧視群體的一員。如前文中的外賣平臺(tái)大數(shù)據(jù)“殺熟”案例中,該作者通過對(duì)比兩個(gè)賬號(hào)才發(fā)現(xiàn)會(huì)員賬號(hào)的配送費(fèi)比非會(huì)員賬號(hào)更高,信息不對(duì)稱性使算法歧視問題變得隱蔽而不易被發(fā)現(xiàn)。

總而言之,無論是算法本身的訓(xùn)練數(shù)據(jù)、運(yùn)行分析邏輯還是用戶信息及運(yùn)行結(jié)果,用戶所掌握的信息都少于算法設(shè)計(jì)者,這使得用戶處于弱勢(shì)地位,最終成為算法歧視的受害者。

算法歧視的治理

算法歧視問題嚴(yán)重?fù)p害用戶的基本權(quán)益,迫切需要對(duì)其進(jìn)行相應(yīng)治理。根據(jù)對(duì)算法歧視問題成因的分析,主要可以從算法設(shè)計(jì)者、用戶及政府、企業(yè)及媒體等第三方主體進(jìn)行展開,探討算法歧視的治理路徑。

第一,加強(qiáng)IT行業(yè)風(fēng)險(xiǎn)防控。首先是加強(qiáng)從業(yè)者職業(yè)道德建設(shè)。IT行業(yè)應(yīng)編寫從業(yè)者職業(yè)道德指南,并定期組織從業(yè)者參加行業(yè)相關(guān)法律法規(guī)和職業(yè)道德倫理學(xué)習(xí)并開展評(píng)估測(cè)試,杜絕從業(yè)者為賺取利益而設(shè)計(jì)歧視性算法的行為,并盡量避免其將偏見思想融入算法程序設(shè)計(jì)中;對(duì)從業(yè)人員建立完善的評(píng)價(jià)體系和定期考核制度,建立完善的用戶評(píng)價(jià)、投訴體系并建立相應(yīng)的獎(jiǎng)懲制度,尤其應(yīng)注意對(duì)用戶滿意度的調(diào)查分析。其次是建立數(shù)據(jù)采集標(biāo)準(zhǔn)。由于數(shù)據(jù)中包含大量信息,因此其在算法中是至關(guān)重要的。IT行業(yè)應(yīng)針對(duì)從業(yè)人員在設(shè)計(jì)算法過程中的數(shù)據(jù)采集等工作制定規(guī)范細(xì)則,從業(yè)者需依據(jù)行業(yè)規(guī)范細(xì)則對(duì)數(shù)據(jù)來源、采集范圍、采樣數(shù)量等信息及時(shí)進(jìn)行記錄說明,并定期接受監(jiān)督和審查,盡可能保證在各群體中數(shù)據(jù)的充分和均勻采集,以避免由于數(shù)據(jù)樣本缺失或采樣不均而產(chǎn)生的算法歧視問題。最后是建立風(fēng)控審查機(jī)制。對(duì)于算法的設(shè)計(jì)過程中的技術(shù)漏洞問題,IT行業(yè)應(yīng)加強(qiáng)從業(yè)者對(duì)規(guī)避算法風(fēng)險(xiǎn)相關(guān)知識(shí)的學(xué)習(xí),使算法設(shè)計(jì)者有良好的風(fēng)險(xiǎn)防控意識(shí)及風(fēng)險(xiǎn)預(yù)判能力。IT行業(yè)應(yīng)該對(duì)算法是否具備輸入信息的篩查過濾機(jī)制進(jìn)行嚴(yán)格審查。對(duì)于機(jī)器學(xué)習(xí)算法而言,用戶輸入信息必須經(jīng)過識(shí)別及過濾,才能供給機(jī)器學(xué)習(xí)算法進(jìn)行學(xué)習(xí);對(duì)于大數(shù)據(jù)科學(xué)而言,信息過濾機(jī)制能夠嚴(yán)格剔除掉那些帶有隱私敏感信息的數(shù)據(jù),使算法先完成數(shù)據(jù)脫敏過程再進(jìn)入運(yùn)算環(huán)節(jié),從而降低數(shù)據(jù)引發(fā)算法歧視問題的風(fēng)險(xiǎn)。

第二,提高用戶防范意識(shí)。首先是注意私人信息的保護(hù)。隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,用戶的運(yùn)動(dòng)軌跡、手機(jī)品牌、出行記錄等日常行為信息都有可能被大數(shù)據(jù)算法捕捉而成為算法歧視的“數(shù)據(jù)供應(yīng)商”。因此,用戶在日常生活中要增強(qiáng)個(gè)人信息保護(hù)意識(shí),嚴(yán)格把控APP數(shù)據(jù)讀取授權(quán),以免被一些挖掘隱私信息的算法盜取信息。其次是提高警惕性和維權(quán)意識(shí)。由于存在算法“黑箱”與信息不對(duì)稱性,用戶有時(shí)會(huì)難以發(fā)現(xiàn)自己成為了被歧視群體的一員。對(duì)此,用戶應(yīng)在日常使用平臺(tái)APP、AI機(jī)器人等過程中保持高度警惕,謹(jǐn)防受到不公平待遇。

另外,用戶應(yīng)提升維權(quán)意識(shí)。2019年北京消費(fèi)者協(xié)會(huì)進(jìn)行的社會(huì)調(diào)查結(jié)果(見圖2)顯示,在遭遇大數(shù)據(jù)“殺熟”后采取投訴方式進(jìn)行維權(quán)的用戶僅占26.72%,向媒體求助的用戶占比8.13%。盡管作為個(gè)體,用戶的力量薄弱,但仍應(yīng)保有話語權(quán)。在一個(gè)用戶背后是被歧視用戶的龐大群體,用戶應(yīng)意識(shí)到算法歧視問題的嚴(yán)重性,一旦發(fā)現(xiàn)自己遭遇算法歧視,應(yīng)在第一時(shí)間保留好證據(jù),積極尋求正當(dāng)渠道進(jìn)行維權(quán)。

QQ圖片20220124111956

第三,政府、媒體等第三方實(shí)現(xiàn)聯(lián)合監(jiān)管。首先是完善法律法規(guī)制度。我國(guó)作為一個(gè)法治國(guó)家,法律具有強(qiáng)大的約束力,通過法律手段對(duì)IT行業(yè)進(jìn)行約束是治理算法歧視問題最有力的手段。在當(dāng)前人工智能時(shí)代,算法應(yīng)用越來越廣泛,涉及到多個(gè)行業(yè)、領(lǐng)域,因此要從法律層面治理算法歧視問題,規(guī)范算法的使用范圍、方式和底線。與此同時(shí),算法歧視涉及算法設(shè)計(jì)者、商家和用戶等多個(gè)主體,對(duì)于不同對(duì)象,法律都應(yīng)詳細(xì)規(guī)定其行為規(guī)范,明確應(yīng)承擔(dān)的責(zé)任和義務(wù)。相關(guān)部門應(yīng)該出臺(tái)相應(yīng)的法律來規(guī)制算法設(shè)計(jì)者的行為,明確在算法設(shè)計(jì)過程中存在惡意歧視行為的懲罰制度并嚴(yán)格執(zhí)行,以避免其侵犯用戶的合法權(quán)益。我國(guó)當(dāng)前相關(guān)法律主要側(cè)重于對(duì)信息內(nèi)容的管控,如已頒布的《互聯(lián)網(wǎng)文化管理暫行規(guī)定》《互聯(lián)網(wǎng)群組信息服務(wù)管理規(guī)定》法律文件等,而對(duì)于算法歧視設(shè)計(jì)主體的行為規(guī)范仍需進(jìn)一步努力。此外,我國(guó)還應(yīng)建立數(shù)據(jù)審查、問責(zé)、監(jiān)管及補(bǔ)救機(jī)制。在算法設(shè)計(jì)過程中,要確保數(shù)據(jù)來源真實(shí)、合理且合法,保證數(shù)據(jù)收集過程透明且可追溯,并建立嚴(yán)格的審查制度,對(duì)數(shù)據(jù)采集進(jìn)行監(jiān)管。2021年7月6日,國(guó)內(nèi)數(shù)據(jù)領(lǐng)域首部基礎(chǔ)性、綜合性立法《深圳經(jīng)濟(jì)特區(qū)數(shù)據(jù)條例》在深圳市人大常委會(huì)網(wǎng)站公布,該《條例》于2022年1月1日起施行?!稐l例》明確規(guī)定,個(gè)人數(shù)據(jù)在被處理前務(wù)必向自然人履行告知義務(wù)、征得自然人的同意,且自然人有權(quán)拒絕數(shù)據(jù)個(gè)性化服務(wù)等。未來,大數(shù)據(jù)體量將持續(xù)增加,我國(guó)應(yīng)繼續(xù)推進(jìn)對(duì)數(shù)據(jù)采集處理的監(jiān)管與治理工作,保障用戶的合法權(quán)益。其次是加強(qiáng)道德倫理監(jiān)督。由于受到社會(huì)環(huán)境的影響,算法設(shè)計(jì)者可能具有對(duì)某一群體的歧視思想,由此可能導(dǎo)致算法設(shè)計(jì)中缺乏中立性。一旦歧視性或偏見性思想融入算法設(shè)計(jì)過程中,算法必然會(huì)輸出歧視性的運(yùn)行結(jié)果。政府應(yīng)嚴(yán)格把控從業(yè)準(zhǔn)入道德標(biāo)準(zhǔn),對(duì)從業(yè)者的職業(yè)道德學(xué)習(xí)、測(cè)評(píng)及IT行業(yè)評(píng)價(jià)及投訴體系的建立進(jìn)行監(jiān)督;媒體應(yīng)發(fā)揮正向的倡導(dǎo)作用,普及算法歧視的相關(guān)知識(shí),引導(dǎo)正確的價(jià)值導(dǎo)向,對(duì)算法歧視問題予以充分關(guān)注并及時(shí)曝光;社會(huì)各界應(yīng)對(duì)算法歧視問題進(jìn)行及時(shí)舉報(bào)和投訴。最后是實(shí)現(xiàn)多方監(jiān)管。當(dāng)前,一些研究者們提出通過“算法透明”來解決算法歧視問題。然而,算法作為企業(yè)的技術(shù)成果與核心競(jìng)爭(zhēng)力,如果全部透明暴露在大眾視野中,很容易受到黑客攻擊而造成損失,因此“算法透明”在現(xiàn)階段難以完全實(shí)現(xiàn)。對(duì)此,許多研究者積極研發(fā)技術(shù)工具,以期在保證算法精準(zhǔn)性的同時(shí)盡可能地避免歧視問題發(fā)生。例如,由數(shù)據(jù)科學(xué)家Been Kim所在團(tuán)隊(duì)研發(fā)的“概念激活向量測(cè)試”(Testing with Concept Activation Vectors)技術(shù),該技術(shù)能夠使算法“黑箱”變得可解釋,進(jìn)而據(jù)此判定算法是否存在歧視問題。隨著類似技術(shù)的發(fā)展成熟,算法設(shè)計(jì)者可以將算法轉(zhuǎn)換成可解釋的邏輯并進(jìn)行公開,接受政府、業(yè)內(nèi)專家、用戶及社會(huì)各界的多方監(jiān)督,在保留其機(jī)密信息的同時(shí)對(duì)算法進(jìn)行監(jiān)管,降低算法歧視問題發(fā)生的概率。

總的來說,算法歧視問題使算法無法充分發(fā)揮其正向效用,損害了用戶的體驗(yàn)感與商家的利益,給算法推廣使用帶來了阻礙。算法的發(fā)展應(yīng)用應(yīng)始終秉承著“以人為本”的原則,任何群體都有權(quán)利享受算法所帶來的紅利,而非成為被算法歧視的對(duì)象。未來,隨著社會(huì)各界對(duì)算法歧視問題的認(rèn)知逐漸加深以及對(duì)算法歧視多方治理的逐步實(shí)現(xiàn),算法一定能在幫助人類高效生產(chǎn)、便捷生活的同時(shí),實(shí)現(xiàn)人文關(guān)懷價(jià)值,充分尊重人類的平等權(quán)利與尊嚴(yán)。

(作者為湖南大學(xué)工商管理學(xué)院副院長(zhǎng),教授、博導(dǎo))

【參考文獻(xiàn)】

①韓勇:《算法歧視的成因及治理路徑》,《青年記者》,2021年第8期。

②宋素紅、王躍祺、常何秋子:《算法性別歧視的形成邏輯及多元化治理》,《新媒體》,2020年第5期。

③刁生富、張艷:《人工智能時(shí)代的算法歧視及其治理路徑》,《佛山科學(xué)技術(shù)學(xué)院學(xué)報(bào)》(社會(huì)科學(xué)版),2021年第1期。

④張力、鄭麗云:《算法推薦的歧視與偏見》,《傳媒先鋒》,2020第7期。

責(zé)編/韓拓 美編/楊玲玲

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:李一丹]
標(biāo)簽: 算法   大數(shù)據(jù)   治理策略