【摘要】 人工智能技術(shù)應(yīng)用于新聞傳播領(lǐng)域,在為傳媒業(yè)帶來(lái)變革的同時(shí)也帶來(lái)了一些新的倫理法規(guī)問(wèn)題,如對(duì)數(shù)據(jù)的非法采集和過(guò)度分析,存在算法偏見(jiàn),算法不透明,涉及隱私的數(shù)據(jù)保護(hù)缺位等。可以從法規(guī)建設(shè)、傳媒應(yīng)具備的責(zé)任意識(shí)和完善技術(shù)規(guī)避風(fēng)險(xiǎn)等角度探索解決問(wèn)題的路徑。算法在傳媒業(yè)的應(yīng)用凸顯了技術(shù)理性的優(yōu)勢(shì),但卻忽略了價(jià)值理性所提倡的人的主導(dǎo)性和價(jià)值觀,人機(jī)協(xié)同推進(jìn)技術(shù)理性和價(jià)值理性的交融,有助于人工智能在新聞傳播領(lǐng)域的健康發(fā)展。
【關(guān)鍵詞】人工智能 新聞傳播 新聞倫理與法規(guī) 數(shù)據(jù)保護(hù)
【中圖分類(lèi)號(hào)】TU984.2 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.006
人工智能是什么?它會(huì)如何發(fā)展?它會(huì)給我們的生活、工作帶來(lái)哪些影響?由于學(xué)科領(lǐng)域的不同,關(guān)于其定義和邊界很難形成共識(shí)。人工智能對(duì)傳媒業(yè)的影響,包括如何提高新聞生產(chǎn)的效率,是否對(duì)新聞從業(yè)者造成職業(yè)壓力,以及是否會(huì)對(duì)新聞倫理與法規(guī)產(chǎn)生沖擊等,已經(jīng)成為新聞傳播領(lǐng)域的關(guān)注點(diǎn)。
人工智能引發(fā)了新聞倫理與法規(guī)的新問(wèn)題
在傳統(tǒng)媒體時(shí)代,傳媒業(yè)相互競(jìng)爭(zhēng)、追逐利潤(rùn),引發(fā)了諸如虛假新聞、有償新聞、媒體審判、新聞侵權(quán)等違背新聞倫理與法規(guī)的現(xiàn)象。當(dāng)前,人工智能技術(shù)逐漸滲透到新聞產(chǎn)品的生產(chǎn)、傳播過(guò)程中,在實(shí)現(xiàn)精準(zhǔn)推送、高效生產(chǎn)的同時(shí),也帶來(lái)了新的倫理與法規(guī)問(wèn)題。
數(shù)據(jù)的非法采集和過(guò)度分析。數(shù)據(jù)是人工智能時(shí)代的重要資源,擁有足夠體量的數(shù)據(jù)是進(jìn)行數(shù)據(jù)分析、深度挖掘的前提。因此,為了擁有大量的數(shù)據(jù),數(shù)據(jù)的采集范圍日漸廣泛,采集方式也日漸隱蔽,無(wú)形中就增加了個(gè)人數(shù)據(jù)被非法收集和過(guò)度分析的風(fēng)險(xiǎn)。
信息劇增時(shí)代是一個(gè)生產(chǎn)大量數(shù)據(jù)和消費(fèi)大量數(shù)據(jù)的時(shí)代,人們?nèi)找娣彪s的社會(huì)活動(dòng)在不斷地產(chǎn)生著不可計(jì)量的數(shù)據(jù)。從所有權(quán)的角度來(lái)看,依據(jù)法律,每個(gè)人不僅擁有個(gè)人數(shù)據(jù)的所有權(quán),而且有權(quán)利知道是哪些機(jī)構(gòu)在收集自己的數(shù)據(jù)、收集了哪些數(shù)據(jù)、被收集的數(shù)據(jù)將用于何處,等等。如果在未告知對(duì)方的情況下收集個(gè)人數(shù)據(jù),這就是一種違背職業(yè)倫理和相關(guān)法規(guī)的行為。
當(dāng)前,社交媒體的普及和大數(shù)據(jù)分析技術(shù)的不斷升級(jí),不僅使得技術(shù)人員能夠從看似沒(méi)有價(jià)值的事物中提取信息,將其轉(zhuǎn)化成有用的數(shù)據(jù),而且也為大數(shù)據(jù)企業(yè)深入分析數(shù)據(jù)、找到數(shù)據(jù)之間的關(guān)聯(lián)性提供了便利。一組孤立的、零散的數(shù)據(jù)也許不具備較高的價(jià)值,但是,如果與其他組數(shù)據(jù)放在一起考慮,發(fā)現(xiàn)其中的相關(guān)關(guān)系以及相關(guān)關(guān)系的強(qiáng)弱,將有助于我們比以往更容易、更清晰地分析事物,尤其是在發(fā)現(xiàn)商業(yè)價(jià)值,以及預(yù)測(cè)某類(lèi)事物的發(fā)展趨勢(shì)方面。“互聯(lián)網(wǎng)+”為創(chuàng)造新的商業(yè)模式開(kāi)辟了思路,而大數(shù)據(jù)分析技術(shù)則為實(shí)現(xiàn)商業(yè)價(jià)值奠定了技術(shù)基礎(chǔ)。當(dāng)前,為建設(shè)一個(gè)透明、高效的服務(wù)型政府,政府部門(mén)在逐漸開(kāi)放數(shù)據(jù)庫(kù),一些網(wǎng)站尤其是社交媒體平臺(tái)也不同程度地開(kāi)放了用戶的實(shí)時(shí)信息,這就為個(gè)別大數(shù)據(jù)商業(yè)機(jī)構(gòu)提供了抓取和挖掘數(shù)據(jù)的機(jī)會(huì)。當(dāng)數(shù)據(jù)(尤其是包含了用戶個(gè)人的經(jīng)濟(jì)狀況、社交范圍的數(shù)據(jù))間的關(guān)系被建立起來(lái),這些數(shù)據(jù)越是被深度挖掘,其商業(yè)價(jià)值就越大。在傳統(tǒng)媒體主導(dǎo)的時(shí)代,受眾的注意力是最值錢(qián)的,而現(xiàn)在則發(fā)生了根本性變化,受眾的透明度——所留下的各種行為痕跡(數(shù)據(jù))更值錢(qián)、更好賣(mài)。因此,建立數(shù)據(jù)采集、數(shù)據(jù)分析的實(shí)施規(guī)則,有助于消除個(gè)人數(shù)據(jù)的違規(guī)采集和過(guò)度挖掘現(xiàn)象。
算法偏見(jiàn)和算法透明度。按照常理,算法作為一種數(shù)學(xué)表達(dá),理應(yīng)拋棄了人類(lèi)在信息傳播中具有的獵奇、歧視、偏見(jiàn)等不良因素,但現(xiàn)實(shí)并非如此。所謂的算法偏見(jiàn)(algorithmic bias),是指在看似客觀中立的算法程序的研發(fā)中,其實(shí)帶有研發(fā)人員的偏見(jiàn)、歧視等,或者所采用的數(shù)據(jù)帶有偏見(jiàn)或歧視。[1]算法是通過(guò)數(shù)據(jù)運(yùn)算來(lái)預(yù)測(cè)未來(lái)的,運(yùn)算過(guò)程將涉及數(shù)據(jù)的質(zhì)量、研發(fā)人員對(duì)數(shù)據(jù)的篩選等因素。其中,數(shù)據(jù)的體量、準(zhǔn)確性、適用范圍等直接關(guān)系到算法決策和運(yùn)算的結(jié)果。在研發(fā)人工智能系統(tǒng)的過(guò)程中,研發(fā)人員所使用的訓(xùn)練數(shù)據(jù)的分布狀況,以及對(duì)算法進(jìn)行應(yīng)力測(cè)試的過(guò)程,都會(huì)影響人工智能的決策與選擇,使得各式各樣的偏見(jiàn)、歧視被技術(shù)客觀性的外衣包裹。另外,算法和數(shù)據(jù)驅(qū)動(dòng)產(chǎn)品總是會(huì)反映其建造者的設(shè)計(jì)選擇,如若程序員們本身帶有偏見(jiàn),那么編寫(xiě)出來(lái)的程序帶有偏見(jiàn)就不足為奇了。[2]當(dāng)前,算法偏見(jiàn)主要有如下幾種:一是“互動(dòng)偏見(jiàn)”,指在算法系統(tǒng)與用戶互動(dòng)過(guò)程中使算法產(chǎn)生的偏見(jiàn),當(dāng)機(jī)器被設(shè)定為向周?chē)h(huán)境學(xué)習(xí)時(shí),它們不能決定要保留或者丟棄哪些數(shù)據(jù),也無(wú)法判斷哪些數(shù)據(jù)是對(duì)的或錯(cuò)的;二是“潛意識(shí)偏見(jiàn)”,指算法將錯(cuò)誤的觀念與種族和性別等因素連結(jié)起來(lái);三是“選擇偏見(jiàn)”,指受數(shù)據(jù)影響的算法,導(dǎo)致過(guò)于放大某一族群或群組,從而使該算法對(duì)其有利,而代價(jià)是犧牲其他群體;四是“數(shù)據(jù)導(dǎo)向的偏見(jiàn)”,指用來(lái)訓(xùn)練算法的原始數(shù)據(jù)已經(jīng)存在偏見(jiàn)了,機(jī)器不會(huì)質(zhì)疑所接收到的數(shù)據(jù),只是單純地尋找其中的模式。如果數(shù)據(jù)一開(kāi)始就被扭曲,那么其輸出的結(jié)果,也將會(huì)反映這一點(diǎn)。[3]
算法的透明度問(wèn)題本質(zhì)上也是新聞生產(chǎn)的透明度問(wèn)題。傳統(tǒng)的新聞生產(chǎn)流程較為簡(jiǎn)單,從素材的采集加工,到編輯整合,再到播發(fā),公眾多多少少都有所了解。而披著“高科技”外衣的“算法”則讓人感覺(jué)有些“高深莫測(cè)”了。諸如“是哪些人研發(fā)了這個(gè)算法”“這個(gè)算法的運(yùn)算目的是什么”“誰(shuí)對(duì)運(yùn)算的結(jié)果負(fù)責(zé)”以及“設(shè)計(jì)推薦算法需要參考哪些指標(biāo)”等類(lèi)似的問(wèn)題在等待著回答,但遺憾的是,算法自身的復(fù)雜性再加上無(wú)法洞悉的“算法黑箱”的存在,增加了公眾對(duì)算法的設(shè)計(jì)原理、運(yùn)行邏輯的理解難度。算法的透明度不僅牽涉新聞生產(chǎn)流程的“客觀性”“公平公正”,而且關(guān)聯(lián)著公眾對(duì)新聞傳媒、新聞產(chǎn)品質(zhì)量的信任,更使得“算法”的透明度問(wèn)題日益被人們關(guān)注。因此,提升算法透明度的意義非同尋常,特別是隨著算法在新聞生產(chǎn)、新聞推送的應(yīng)用日漸增多,“透明度”越來(lái)越多地被用作合法化新聞的規(guī)范基礎(chǔ),透明度不僅可以對(duì)新聞算法的功能進(jìn)行有價(jià)值的檢查,還可以提高算法對(duì)道德、文化和認(rèn)識(shí)論的影響力。[4]
對(duì)隱私權(quán)與數(shù)據(jù)保護(hù)的憂慮。隨著人們與外界交往活動(dòng)的增加,以及記錄、存儲(chǔ)和傳播信息的技術(shù)日益完善,大量涉及公眾個(gè)人的數(shù)據(jù)被卷入了信息洪流之中,人們掌控自己信息的權(quán)利和能力被削弱,變得愈加透明,正如麻省理工學(xué)院的研究人員所發(fā)現(xiàn)的,只需掌握四個(gè)時(shí)空移動(dòng)數(shù)據(jù),就可以辨識(shí)出95%的個(gè)人身份信息。[5]大數(shù)據(jù)時(shí)代使得隱私被侵犯的概率以及善后的難度成倍增加,一旦造成傷害,就無(wú)法補(bǔ)救,即使你刪除了原文,無(wú)數(shù)影像文件依然存在。[6]
近幾年,推薦算法是國(guó)內(nèi)外大多數(shù)新聞APP和社交媒體平臺(tái)使用的主流,通過(guò)機(jī)器學(xué)習(xí)持續(xù)關(guān)注用戶的閱讀數(shù)據(jù),來(lái)提升新聞生產(chǎn)的個(gè)性化和新聞推送的準(zhǔn)確率。推薦算法的實(shí)質(zhì)就是大數(shù)據(jù)分析。通過(guò)抓取和分析用戶的年齡、性別、職業(yè)、文化水平、收入水平等人文信息,以及閱讀時(shí)的接觸時(shí)長(zhǎng)、接觸頻率、接觸動(dòng)機(jī)等行為信息,將用戶的零散數(shù)據(jù)匯聚在一起,運(yùn)用算法實(shí)現(xiàn)用戶的精準(zhǔn)畫(huà)像,推測(cè)出用戶的個(gè)人特征、閱讀偏好等。
我們?cè)谑褂没ヂ?lián)網(wǎng)的時(shí)候經(jīng)常遇到“授權(quán)提示”,通過(guò)授權(quán)我們獲取了某些操作上的便捷和高效,實(shí)質(zhì)上,這是用戶在“被愿意”的情況下,通過(guò)“讓渡”隱私來(lái)?yè)Q取便利。2013年以來(lái),美國(guó)傳媒行業(yè)開(kāi)始利用傳感器采集數(shù)據(jù)并將之用于新聞報(bào)道。安裝在公共場(chǎng)所的各類(lèi)傳感器可以24小時(shí)不間斷地采集人們的信息,此外,運(yùn)動(dòng)手環(huán)、智能手機(jī)、電子閱讀器等配置的一些軟件也可以隨時(shí)隨地采集使用者的個(gè)性化數(shù)據(jù)。在各式各樣的傳感設(shè)備面前,人們幾乎無(wú)隱私可言,而且無(wú)法知曉自身的哪些信息被采集了,被采集的數(shù)據(jù)又是如何被使用的。當(dāng)我們?cè)谏鐣?huì)活動(dòng)中產(chǎn)生的信息,尤其是一些較為敏感的數(shù)據(jù),在不知不覺(jué)地被收集、被分析,甚至被用于商業(yè)目的時(shí),或者原本屬于個(gè)人的私密空間被他人“窺視”和“分享”時(shí),這就預(yù)示著人們?cè)诒Wo(hù)個(gè)人隱私、控制和管理個(gè)人數(shù)據(jù)上已經(jīng)處于弱勢(shì)地位了。
如何應(yīng)對(duì)人工智能技術(shù)對(duì)新聞傳播的負(fù)面影響
技術(shù)紅利與技術(shù)缺陷是相伴相生的,作為一個(gè)還不完善的新生事物,人工智能不可避免會(huì)產(chǎn)生一些新聞倫理與法規(guī)方面的問(wèn)題。分析問(wèn)題的根源以規(guī)避負(fù)面影響的產(chǎn)生,將有助于人工智能最大化地發(fā)揮自身價(jià)值。
法規(guī)建設(shè)層面。倫理是人類(lèi)文明的朝陽(yáng),法規(guī)是人類(lèi)文明的落日,是規(guī)范社會(huì)行為時(shí)不得已而為之的他律。第一部個(gè)人數(shù)據(jù)保護(hù)法,是1973年的《瑞典數(shù)據(jù)法》。而美國(guó)則是第一個(gè)明確提出保護(hù)隱私權(quán),并在1974年通過(guò)了《隱私法》的國(guó)家,1988年制定了《電腦匹配與隱私權(quán)法》,1998年美國(guó)國(guó)會(huì)又通過(guò)了《網(wǎng)上兒童隱私權(quán)保護(hù)法》。為解決互聯(lián)網(wǎng)時(shí)代對(duì)用戶個(gè)人數(shù)據(jù)的收集、使用等問(wèn)題,1996年歐盟通過(guò)了《關(guān)于個(gè)人數(shù)據(jù)處理保護(hù)與自由流動(dòng)指令》,2016年又制定了《通用數(shù)據(jù)保護(hù)條例》(GDPR),并于2018年5月25日在歐盟28個(gè)成員國(guó)生效。
為了加強(qiáng)對(duì)電信、金融、醫(yī)療等服務(wù)機(jī)構(gòu)中使用個(gè)人數(shù)據(jù)信息的管理,2013年2月,我國(guó)開(kāi)始實(shí)施《信息安全技術(shù)公共及商用服務(wù)信息系統(tǒng)個(gè)人信息保護(hù)指南》,該標(biāo)準(zhǔn)的顯著特點(diǎn)是將個(gè)人信息劃分為一般信息和敏感信息兩個(gè)類(lèi)別,個(gè)人信息的使用前提是知情同意,并且要求在被使用后予以刪除等。
2017年6月1日開(kāi)始施行的《網(wǎng)絡(luò)安全法》也有關(guān)于保護(hù)公民合法權(quán)益的規(guī)定:網(wǎng)絡(luò)運(yùn)營(yíng)者應(yīng)當(dāng)對(duì)其收集的用戶信息嚴(yán)格保密;網(wǎng)絡(luò)運(yùn)營(yíng)者收集、使用個(gè)人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,公開(kāi)收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意;網(wǎng)絡(luò)運(yùn)營(yíng)者不得泄露、篡改、毀損其收集的個(gè)人信息;未經(jīng)被收集者同意,不得向他人提供個(gè)人信息。[7]為了最終將個(gè)人信息的控制權(quán)歸還給用戶本人,各國(guó)相繼出臺(tái)的個(gè)人數(shù)據(jù)保護(hù)法規(guī)主要有以下幾個(gè)關(guān)鍵點(diǎn):一是采集數(shù)據(jù)信息時(shí),必須得到用戶本人的知情同意;二是將知情程度延展到數(shù)據(jù)抓取的方法、數(shù)據(jù)使用目的、是否同意再次出讓?zhuān)蝗怯脩粲袡?quán)隨時(shí)查看、更正和刪除數(shù)據(jù),發(fā)現(xiàn)錯(cuò)誤數(shù)據(jù)時(shí),有權(quán)要求修改;四是建立投訴、舉報(bào)制度,并制定了明確的處罰條例。
長(zhǎng)期以來(lái),法律的制定與實(shí)施往往滯后于新技術(shù)、新實(shí)踐的發(fā)展。當(dāng)前,明確責(zé)任的歸屬問(wèn)題以及由此衍生的人們對(duì)人工智能的信任問(wèn)題,已經(jīng)成為影響人工智能技術(shù)發(fā)展的瓶頸。人工智能在眾多領(lǐng)域的應(yīng)用,尤其是無(wú)人駕駛汽車(chē)、醫(yī)療機(jī)器人等的誕生,加速了構(gòu)建適用于人工智能的法律體系的步伐。目前,在缺乏參照系的情況下,對(duì)于新出現(xiàn)的人工智能案例,可以適用現(xiàn)有法律(如侵犯隱私、一般的侵權(quán)等)[8],但這僅僅是權(quán)宜之計(jì),作出前瞻性的立法布局,在恰當(dāng)?shù)臅r(shí)候制定適用于人工智能的法律法規(guī)體系,從根本上解決問(wèn)題,則是各國(guó)在人工智能時(shí)代的最佳應(yīng)對(duì)策略。
媒體責(zé)任層面。快速與個(gè)性化是人工智能應(yīng)用于傳媒業(yè)的最顯著的特征。人工智能對(duì)新聞價(jià)值的判別主要基于算法,致使其在生產(chǎn)和推送中更側(cè)重于那些公眾“欲知而未知”的內(nèi)容,而那些涉及公共利益,包含一定政策性、知識(shí)性的內(nèi)容,即廣大公眾“應(yīng)知而未知”的內(nèi)容,則較難納入生產(chǎn)和推送的范圍。算法的存在價(jià)值就是幫助人們作出選擇,而選擇本身就意味著放棄。如果公眾長(zhǎng)期受到智能生產(chǎn)、智能排序和智能推薦的影響,接觸到和所選擇的僅僅是基于個(gè)人偏好或者智能軟件所推送的新聞信息,就難免限制公眾的視野,使公眾處于信息溝通與交流的孤島之中。由此所形成“信息繭房”,對(duì)個(gè)體而言,主要影響的是公眾個(gè)人社會(huì)化的過(guò)程與結(jié)果,但對(duì)整個(gè)社會(huì)而言,就會(huì)減少不同聲音之間的碰撞、不同觀點(diǎn)之間的交鋒,社會(huì)輿論趨于單一和一致化。在多元的社會(huì)輿論環(huán)境中求得動(dòng)態(tài)的平衡,才是社會(huì)和諧發(fā)展的正常過(guò)程。因此,新聞傳媒不能以人工智能有助于為自身的發(fā)展帶來(lái)轉(zhuǎn)機(jī)為借口,而忽略了新聞傳播的多樣性和多元化。
當(dāng)前,人工智能技術(shù)使得新聞產(chǎn)品的商業(yè)屬性被突出強(qiáng)調(diào),原來(lái)的新聞“5W”要素有了新的解讀,變成了:誰(shuí)在乎;他們?yōu)榇讼敫冻鍪裁?;媒體和廣告商在哪里可以找到這些人;什么時(shí)候提供這些新聞才是有利可圖的;為什么這個(gè)可以賺錢(qián)。[9]這種轉(zhuǎn)變預(yù)示著以消費(fèi)者為導(dǎo)向的商業(yè)模式加劇了對(duì)傳統(tǒng)新聞生產(chǎn)模式的侵蝕,新聞傳播的公共服務(wù)性再次被削弱。
在我國(guó),新聞傳媒不僅是信息傳播渠道,還擔(dān)負(fù)著宣導(dǎo)撫慰的職責(zé),需要與政府良性互動(dòng),進(jìn)而發(fā)揮協(xié)調(diào)利益、疏導(dǎo)矛盾的功能。目前,人工智能技術(shù)還不具備從宏觀上透徹地了解社會(huì)現(xiàn)狀與發(fā)展進(jìn)程的能力,也無(wú)法在新聞的生產(chǎn)與發(fā)布上體現(xiàn)大局意識(shí)。在把尊重公眾的知情權(quán)、回應(yīng)公眾的關(guān)切與政府當(dāng)前的工作重心結(jié)合起來(lái),把服務(wù)、滿足公眾需求與教育引導(dǎo)公眾、提高公眾的素養(yǎng)結(jié)合起來(lái)等方面,人工智能還有很長(zhǎng)的路要走。當(dāng)在新聞信息傳播中出現(xiàn)倫理失范和違反法律法規(guī)時(shí),“這是算法的結(jié)果”和“這是機(jī)器生成的”不能成為傳媒推卸責(zé)任的“擋箭牌”。
技術(shù)完善層面。當(dāng)前,加強(qiáng)個(gè)人隱私和數(shù)據(jù)保護(hù)是較為緊迫的任務(wù),切實(shí)可行的方法有研發(fā)“匿名化處理”技術(shù)和推廣具有個(gè)人數(shù)據(jù)保護(hù)功能的軟件產(chǎn)品。匿名化處理是指互聯(lián)網(wǎng)公司或數(shù)據(jù)機(jī)構(gòu)在實(shí)施數(shù)據(jù)分析之前,移除所采集的數(shù)據(jù)中可識(shí)別個(gè)人信息的部分,使數(shù)據(jù)主體不再被識(shí)別出來(lái)。這種做法既可以降低暴露個(gè)人敏感信息的風(fēng)險(xiǎn),還有助于保證用戶對(duì)大數(shù)據(jù)技術(shù)和人工智能的信任度。
國(guó)外互聯(lián)網(wǎng)市場(chǎng)上所研發(fā)的有助于保護(hù)個(gè)人數(shù)據(jù)隱私的產(chǎn)品和服務(wù)主要有兩類(lèi):一是協(xié)助加密、反追蹤或者銷(xiāo)毀個(gè)人數(shù)據(jù)的軟件,二是去掉了數(shù)據(jù)搜集功能的搜索引擎。用戶的網(wǎng)上信息對(duì)于商業(yè)公司,尤其是對(duì)于在線廣告公司有著極高的商業(yè)價(jià)值。Do Not Track(Dnt)是一款杜絕在線跟蹤用戶行為的功能。如在谷歌、微軟、火狐等具有 “Do not track” 功能的瀏覽器中就有一個(gè)“發(fā)送不跟蹤”的按鈕,網(wǎng)民開(kāi)啟這項(xiàng)功能之后,就能夠避免自己的網(wǎng)上行為被追蹤,從而避免隱私泄露。傳統(tǒng)的搜索引擎為了提高效率,都會(huì)對(duì)用戶數(shù)據(jù)進(jìn)行詳盡地收集和分析,從倫理法規(guī)的角度看這是一種侵犯用戶隱私的行為。近年國(guó)外開(kāi)發(fā)并推行的Duck Duck Go就是一款不監(jiān)控用戶搜索行為、不記錄用戶搜索內(nèi)容的互聯(lián)網(wǎng)搜索引擎,其最大特色就是能夠有效保護(hù)用戶的隱私。
隨著人工智能技術(shù)的日漸成熟,越來(lái)越多的規(guī)則被程序員以代碼的形式寫(xiě)進(jìn)了算法程序。算法、代碼開(kāi)始影響各種決策,從技術(shù)層面或者說(shuō)在機(jī)器學(xué)習(xí)過(guò)程中嵌入“機(jī)會(huì)平等”的概念、構(gòu)建技術(shù)公平原則,在人工智能日漸代替人類(lèi)作出抉擇的時(shí)代顯得非常重要。國(guó)外已經(jīng)有研究團(tuán)隊(duì)依據(jù)約翰·羅爾斯的公平技術(shù)定義及其“機(jī)會(huì)公平平等”理論,引入了“歧視指數(shù)”的概念,提出了設(shè)計(jì)“公平”算法的構(gòu)想。[10]
技術(shù)引發(fā)的新聞倫理和法規(guī)問(wèn)題不能成為否定技術(shù)本身的理由,相反的,我們應(yīng)當(dāng)有針對(duì)性地剖析問(wèn)題的根源,糾正并克服人工智能技術(shù)在倫理法規(guī)上的失范,多渠道、全方位地探索出有效的路徑,保證人工智能技術(shù)在新聞傳播領(lǐng)域的良性發(fā)展。
在人機(jī)協(xié)同中實(shí)現(xiàn)技術(shù)理性與價(jià)值理性的交融
新聞傳媒業(yè)的發(fā)展可以說(shuō)與傳播技術(shù)的發(fā)展是同步的,新技術(shù)不僅改變了人們的生活狀態(tài),也推動(dòng)了傳媒業(yè)的變革與發(fā)展。從媒介技術(shù)的角度而言,就是解決如何以最方便、最靈活、最快捷、最經(jīng)濟(jì)、最有效的手段和方法提高信息生產(chǎn)與傳播效率問(wèn)題,它的內(nèi)在邏輯是技術(shù)理性或工具理性。[11]但是,新聞傳播是人的社會(huì)實(shí)踐活動(dòng),僅靠技術(shù)理性的驅(qū)動(dòng)是不夠的,需要將追求效果的最大化與關(guān)注人的情感和精神價(jià)值結(jié)合起來(lái)。
人機(jī)共生、人機(jī)協(xié)同是傳媒業(yè)的發(fā)展趨勢(shì)。計(jì)算機(jī)科學(xué)家高德納曾經(jīng)評(píng)價(jià)人工智能:人工智能已經(jīng)在幾乎所有需要思考的領(lǐng)域超過(guò)了人類(lèi),但是在那些人類(lèi)和其他動(dòng)物不需要思考就能完成的事情上,還差得很遠(yuǎn)。[12]人工智能盡管在新聞報(bào)道的人文情懷、創(chuàng)意構(gòu)思上還有不盡如人意的地方,但也具備了高效的生產(chǎn)、精準(zhǔn)的推送,以及渠道的拓展等人力所無(wú)法比肩的優(yōu)勢(shì)。結(jié)合3D成像技術(shù)、語(yǔ)音識(shí)別技術(shù)等,如今人工智能已經(jīng)開(kāi)始扮演傳播者“人”的身份,并且進(jìn)入現(xiàn)實(shí)的新聞傳播活動(dòng)之中。但是,事實(shí)告訴我們,新聞傳播是一種極富專(zhuān)業(yè)性和“創(chuàng)意”的智力活動(dòng),同時(shí)也是涉及政治思想、文化宗教等意識(shí)形態(tài)領(lǐng)域的高級(jí)精神勞動(dòng),因此,揚(yáng)長(zhǎng)避短是比較明智的選擇,把機(jī)器或者程序能做的交給機(jī)器和程序,從而把人力解放出來(lái),去從事具有創(chuàng)新要求和需要發(fā)揮想象力的工作,這是自工業(yè)革命以來(lái)自動(dòng)化革命的基本理念。[13]
面對(duì)人工智能技術(shù)對(duì)傳媒領(lǐng)域的逐漸滲透,新聞從業(yè)者將與人工智能進(jìn)行科學(xué)的分工與互補(bǔ)性的協(xié)作,在“人機(jī)共生”的環(huán)境中各展所長(zhǎng),媒體通過(guò)算法來(lái)發(fā)現(xiàn)新聞線索、整理分析數(shù)據(jù)以及撰寫(xiě)初稿,新聞從業(yè)者則將精力用于對(duì)重要人物的采訪、稿件內(nèi)容的深化等能夠施展人類(lèi)才華、體現(xiàn)職業(yè)理想和人文情懷的地方。從傳媒業(yè)的整體布局來(lái)看,不僅要構(gòu)建“人機(jī)協(xié)同”的生產(chǎn)模式,更要鼓勵(lì)二者在協(xié)同中實(shí)現(xiàn)創(chuàng)新,這或許是傳媒業(yè)在人工智能時(shí)代的最佳選擇。
價(jià)值理性與技術(shù)理性的相互協(xié)調(diào)。人機(jī)協(xié)同不僅是指新聞生產(chǎn)中新聞從業(yè)者與算法系統(tǒng)的相互配合,更指在新聞傳播中,價(jià)值理性和技術(shù)理性之間的平衡。法蘭克福學(xué)派的代表人物赫伯特·馬爾庫(kù)塞認(rèn)為,技術(shù)作為一種生產(chǎn)方式,……同時(shí)也是組織和維持(或改變)社會(huì)關(guān)系的一種方式,它體現(xiàn)了主導(dǎo)性的思考和行為模式,是控制和支配的工具。[14]以前主要靠暴力來(lái)統(tǒng)治社會(huì),而在現(xiàn)代社會(huì)中,技術(shù)成為社會(huì)控制的新形式,技術(shù)理性已經(jīng)成為一種意識(shí)形態(tài)來(lái)統(tǒng)治和控制社會(huì)。技術(shù)理性強(qiáng)調(diào)的是通過(guò)技術(shù)來(lái)推動(dòng)社會(huì)的發(fā)展,改善人們的生活,技術(shù)有著顯著的實(shí)用性、目的性,其效果往往是立竿見(jiàn)影,容易被廣大公眾親身感受到,在技術(shù)推崇備至的情況下,技術(shù)理性引導(dǎo)著人們更關(guān)心利益的獲取和物的追求,致使人們的自主意識(shí)和獨(dú)立判斷能力在悄無(wú)聲息中被消解。
相比于技術(shù)理性,價(jià)值理性是一種以人為中心的理性,它不以功利為最高目的,其目標(biāo)是推護(hù)人的尊嚴(yán)、提升人的價(jià)值、滿足人的長(zhǎng)遠(yuǎn)需要、促進(jìn)人的全面發(fā)展和完善。價(jià)值理性解決的是“做什么”的問(wèn)題,為實(shí)踐主體指明了方向,至于“如何做”的問(wèn)題則主要由工具理性來(lái)解決。技術(shù)理性雖然增強(qiáng)了人的生存和發(fā)展能力,帶來(lái)了物質(zhì)的豐富和文化的繁榮,但是隨著技術(shù)理性被無(wú)限放大,價(jià)值理性的發(fā)揮受到了擠壓和限制。在新聞傳播活動(dòng)中,既要重視節(jié)約生產(chǎn)成本、提高傳播效率,同時(shí)也要考慮新聞傳媒如何更好地發(fā)揮引領(lǐng)輿論、協(xié)調(diào)利益、疏導(dǎo)心理等充滿人文情懷的功能。人機(jī)交互、人機(jī)協(xié)同本質(zhì)上是在強(qiáng)調(diào)人的主體性,在人工智能中融入人的價(jià)值觀和人文情懷,通過(guò)提升人工智能的價(jià)值理性,將價(jià)值理性和工具理性統(tǒng)一于新聞實(shí)踐中。
結(jié)語(yǔ)
人工智能為新聞傳媒業(yè)的發(fā)展開(kāi)啟了一扇窗戶,在改變著新聞信息的生產(chǎn)和傳播方式的同時(shí),也需要原有的新聞倫理與法規(guī)作出相應(yīng)的調(diào)適。因人工智能技術(shù)應(yīng)用于傳媒領(lǐng)域而引發(fā)問(wèn)題不是技術(shù)發(fā)展的失敗,而是對(duì)技術(shù)理性與價(jià)值理性能否相互協(xié)調(diào)、相互融合的考驗(yàn),也是對(duì)新聞倫理法規(guī)開(kāi)放性的考驗(yàn)。因此,考察人工智能技術(shù)在新聞傳播領(lǐng)域的應(yīng)用,以及由此帶來(lái)的問(wèn)題,不僅拓展了新聞倫理與法規(guī)的研究視野,更有助于指導(dǎo)不斷變革中的新聞實(shí)踐。
(本文系中國(guó)人民大學(xué)科學(xué)研究基金[中央高?;究蒲袠I(yè)務(wù)費(fèi)專(zhuān)項(xiàng)資金資助]項(xiàng)目“數(shù)據(jù)新聞可視化的產(chǎn)品評(píng)價(jià)指標(biāo)體系研究”的研究成果,項(xiàng)目編號(hào):17XNL003)
注釋
[1]《算法偏見(jiàn)是如何產(chǎn)生的?》,新華網(wǎng),2018年3月22日,http://xw.xinhuanet.com/news/detail/779138/。
[2]Misty:《致程序員:算法為何帶有偏見(jiàn)?》,雷鋒網(wǎng),2016年6月27日,https://www.leiphone.com/news/201606/tnedws8svgubagll.html。
[3]Francisco Socal:《人工智能算法偏見(jiàn)的根源在人類(lèi)》,電子工程專(zhuān)輯EE Times China網(wǎng),2018年3月22日,https://www.eet-china.com/news/201803220600.html。
[4]Matt Carlson, "Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism", New Media & Society, 2018, Vol. 20(5) , pp. 1755-1772.
[5]Yves-Alexandre de Montijoye, et al., "Unique in the Crowd: The Privacy Bounds of Human Mobility", Scientific Reports, 25 March, 2013, www.nature.com/srep/2013/130325/srep01376/full/ srep01376.html.
[6]彭增軍:《新聞業(yè)的救贖:數(shù)字時(shí)代新聞生產(chǎn)的16個(gè)關(guān)鍵問(wèn)題》,北京:中國(guó)人民大學(xué)出版社,2018年,第119~120頁(yè)。
[7]《中華人民共和國(guó)網(wǎng)絡(luò)安全法》,中國(guó)人大網(wǎng),2016年11月7日,http://www.npc.gov.cn/npc/xinwen/2016-11/07/content_2001605.htm。
[8]喬路、白雪:《人工智能的法律未來(lái)》,北京:知識(shí)產(chǎn)權(quán)出版社,2018年,第32頁(yè)。
[9]彭增軍:《新聞業(yè)的救贖:數(shù)字時(shí)代新聞生產(chǎn)的16個(gè)關(guān)鍵問(wèn)題》,北京:中國(guó)人民大學(xué)出版社,2018年,第141頁(yè)。
[10]Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, Rawlsian Fairness for Machine Learning, Submitted on 29 October 2016 (v1), revised 1 November 2016 (this version, v2), latest version 29 June 2017.
[11]郭慶光:《傳播學(xué)教程》(第二版),北京:中國(guó)人民大學(xué)出版社,2011年,第116頁(yè)。
[12]王天一:《人工智能革命:歷史、當(dāng)下與未來(lái)》,北京時(shí)代華文書(shū)局,2017年,第43頁(yè)。
[13]金兼斌:《機(jī)器新聞寫(xiě)作:一場(chǎng)正在發(fā)生的革命》,《新聞與寫(xiě)作》,2014年第9期。
[14]Herbert Marcuse, "Some Social Implications of Modern Technology", Studies in Philosophy & Social Science, 1941, pp. 138-139.
責(zé) 編/馬冰瑩
Thoughts on News Ethics and Regulations in the Age of Artificial Intelligence
Xu Xiangdong
Abstract: While the AI technology brings great changes to the media industry, it also causes certain ethical and regulatory issues, such as illegal collection and over-analysis of data, algorithmic biases, opaque algorithms, and lack of protection of privacy-related data. The path of problem solving can be explored from the perspectives of law making, the responsibility of the media, and the improvement of technology to avoid risks. The application of algorithm in the media industry highlights the advantages of technical rationality, but ignores the dominance and values advocated by value rationality. Promoting the blending of technical rationality and value rationality through the human-machine coordination can help AI to develop in a healthy manner in the field of news communication.
Keywords: artificial intelligence, news communication, news ethics and regulations, data protection
許向東,中國(guó)人民大學(xué)新聞學(xué)院教授、博導(dǎo),中國(guó)人民大學(xué)新聞與社會(huì)發(fā)展研究中心研究員。研究方向?yàn)樾侣劽襟w、新聞實(shí)務(wù)。主要著作有《數(shù)據(jù)新聞可視化——如何用可視化講故事》《數(shù)據(jù)新聞——新聞報(bào)道新模式》《信息圖表編輯》等。