【摘要】人工智能背景下新聞傳播的生產(chǎn)工具和生產(chǎn)方式出現(xiàn)了巨大變化,尊崇客觀、公正、最小傷害的新聞倫理傳統(tǒng)面臨沖擊,研究范疇由新聞工作者、新聞機(jī)構(gòu)、新聞受眾延伸至智能技術(shù)和社交平臺(tái),它們?cè)谛侣剛惱韴D景中的位置和行為模式也產(chǎn)生了變化。以算法倫理和大數(shù)據(jù)倫理為主要的邏輯起點(diǎn),結(jié)合智能時(shí)代新聞傳播模式的具體變化,從個(gè)體倫理層次、組織倫理層次和社會(huì)倫理層次厘清具體道德行動(dòng)者的行動(dòng)領(lǐng)域,可以更為清晰地展現(xiàn)各道德行動(dòng)者之間的倫理互動(dòng)結(jié)構(gòu),并且綜合呈現(xiàn)人工智能時(shí)代的新聞倫理結(jié)構(gòu)和不同責(zé)任主體之間的關(guān)系。
【關(guān)鍵詞】人工智能 新聞倫理 道德行動(dòng)者 倫理治理
【中圖分類號(hào)】G210 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.001
隨著信息革命的深入,新聞傳播業(yè)的生產(chǎn)工具與生產(chǎn)方式出現(xiàn)了巨大變化。人工智能不僅可以通過(guò)機(jī)器寫(xiě)作重塑新聞生產(chǎn)流程,還能通過(guò)智能算法革新新聞分發(fā)方式,更會(huì)對(duì)新聞傳媒生態(tài)的信息終端、用戶系統(tǒng)、互動(dòng)模式等進(jìn)行多方位重塑。在這種結(jié)構(gòu)性變革的面前,傳統(tǒng)新聞倫理學(xué)的研究與實(shí)踐也面臨著更加復(fù)雜的挑戰(zhàn)。在新聞傳播領(lǐng)域,機(jī)器寫(xiě)作、智能分發(fā)、算法推薦等技術(shù)帶來(lái)了更具個(gè)性化的服務(wù)和更高的傳播效率,但后真相、個(gè)人和國(guó)家數(shù)據(jù)安全、算法偏見(jiàn)、被遺忘權(quán)等問(wèn)題,也激起了廣泛的討論。機(jī)器越自由,就越需要道德準(zhǔn)則(溫德?tīng)?middot;瓦拉赫、科林·艾倫,2017)。
在科技進(jìn)步主義話語(yǔ)主導(dǎo)社會(huì)發(fā)展的語(yǔ)境下,技術(shù)的制度化作用被進(jìn)一步放大,新聞倫理的傳統(tǒng)理論假設(shè)也需要在新的技術(shù)條件和社會(huì)環(huán)境下予以系統(tǒng)反思。媒體倫理通常是對(duì)兩個(gè)問(wèn)題的問(wèn)責(zé):“對(duì)什么負(fù)責(zé)?”“對(duì)誰(shuí)負(fù)責(zé)?”(Glasser,1989:179),而人工智能發(fā)展到今日,我們可能要增加一個(gè)答案看似顯而易見(jiàn),卻實(shí)則眾說(shuō)紛紜的問(wèn)題:“誰(shuí)來(lái)負(fù)責(zé)?”
人工智能及其對(duì)新聞倫理的影響
新聞及其生產(chǎn)慣例一直受到技術(shù)的影響(Parry,2011;Pavlik,2000),在演變的過(guò)程中,各種價(jià)值觀被刻入其中形成新聞倫理共識(shí)。大眾化報(bào)紙誕生以來(lái),新聞業(yè)長(zhǎng)期被期待為沒(méi)有干預(yù)的事實(shí)再現(xiàn),發(fā)展了客觀性、中立性、可確認(rèn)性和中介作用等價(jià)值(Dörr & Hollnbuchner,2017)。對(duì)客觀性原則的反思,催生了調(diào)查性報(bào)道、解釋性新聞,它們?cè)噲D在報(bào)道和闡述之間取得平衡,并增加不同的道德價(jià)值面向以形成公眾輿論(Selgado & Stromback,2012)。
新聞傳播的數(shù)字化和國(guó)際化對(duì)媒體倫理傳統(tǒng)假定帶來(lái)進(jìn)一步的沖擊。首先,在線新聞,特別是基于社交媒體的信息傳播模式,使得傳統(tǒng)的“驗(yàn)證新聞”及其嚴(yán)格的事實(shí)檢查正在被非專業(yè)化的新聞形式取代(Kovach & Rosenstiel,2007)。新聞專業(yè)人員把控信息流的壟斷地位被打破,傳統(tǒng)媒體一直遵循的倫理價(jià)值,如客觀公正、把關(guān)控制等,也被大量即時(shí)性用戶生成的內(nèi)容遮蔽。而全球化新聞業(yè)的出現(xiàn),不僅導(dǎo)致文化價(jià)值的沖突,也產(chǎn)生了一個(gè)更難解決的問(wèn)題,即如何設(shè)想和界定全球化新聞傳播的相關(guān)責(zé)任(Ward,2011:208)。
人工智能的兩大支柱——算法和大數(shù)據(jù),已經(jīng)多維度地進(jìn)入新聞傳播領(lǐng)域,特別是智能推薦算法作為兩者的集成,已經(jīng)在信息傳播領(lǐng)域產(chǎn)生巨大的影響。目前主流的推薦算法有三種:基于內(nèi)容的推薦、基于協(xié)同過(guò)濾的推薦和基于時(shí)序流行度的推薦。
基于內(nèi)容的算法,其主要邏輯是受眾偏好與新聞內(nèi)容特征的匹配。通過(guò)用戶特征數(shù)據(jù)和網(wǎng)絡(luò)行為的分析,確立興趣模型;利用分詞技術(shù)等模式計(jì)算內(nèi)容文本特征,選取兩者之間相關(guān)度高的形成推薦列表。這種算法能夠有效增加用戶黏性,但對(duì)于個(gè)人信息的標(biāo)簽化分析,也容易引發(fā)個(gè)人數(shù)據(jù)安全性的爭(zhēng)議。近期斯坦福大學(xué)研發(fā)的算法可以通過(guò)交友網(wǎng)站信息判定性取向,準(zhǔn)確率高達(dá)91%(Yilun Wang & Michal Kosinski,2018),這一研究立即招致公眾批評(píng),也讓公眾對(duì)于算法的信息挖掘能力產(chǎn)生倫理質(zhì)疑。
協(xié)同過(guò)濾算法的基本邏輯是人以群分,通過(guò)計(jì)算用戶的特征數(shù)據(jù)將其編入一個(gè)用戶群體,按照群體共享度較高的偏好推薦內(nèi)容。這種做法將計(jì)算單位有效地下降為群體,減少了數(shù)據(jù)處理量。谷歌新聞最早采取的就是這類推薦算法。但是這種算法的倫理困境在于容易產(chǎn)生信息繭房,且將人群分類可能產(chǎn)生潛在的算法歧視,不僅觸犯?jìng)€(gè)人隱私,而且易于強(qiáng)化社會(huì)偏見(jiàn)。
基于時(shí)序流行度的推薦算法,將單位時(shí)間的瞬時(shí)點(diǎn)擊率等動(dòng)態(tài)特征作為考量因素,將特定時(shí)間窗口內(nèi)流行度較高的新聞推薦給用戶。這種算法模型很好地解決了內(nèi)容冷啟動(dòng)問(wèn)題,但是對(duì)于“標(biāo)題黨”和“三俗”信息的免疫力相對(duì)較低。
信息聚合平臺(tái)往往綜合使用上述三種推薦算法,并且針對(duì)用戶體驗(yàn)不斷優(yōu)化各指標(biāo)的權(quán)重,以更好地預(yù)測(cè)用戶行為。之前智能推薦算法的研發(fā)并沒(méi)有置于新聞倫理的框架予以關(guān)切,使得互聯(lián)網(wǎng)信息平臺(tái)公司在算法的設(shè)置中很少內(nèi)嵌傳統(tǒng)新聞倫理價(jià)值。社交媒體時(shí)代,信息推薦和信息過(guò)濾等智能算法實(shí)際上具有了議程設(shè)置的功能,取代傳統(tǒng)媒體引導(dǎo)輿論。而智能算法設(shè)計(jì)者沒(méi)有受到傳統(tǒng)新聞倫理約束,這就在一定程度上使得新聞專業(yè)主義的行業(yè)傳統(tǒng)和價(jià)值基礎(chǔ),與智能算法的社會(huì)影響之間產(chǎn)生了鴻溝。Facebook的“偏見(jiàn)門(mén)”(Bakshy et al.,2015;方師師,2016;韓鴻、彭璟論,2016)和算法推薦下“后真相”時(shí)代的假新聞泛濫(邁克爾·舒德森、周蘭,2017;彭蘭,2017;史安斌、王沛楠,2017;潘忠黨、陸曄,2017;支庭榮、羅敏,2018),也許就是不受傳統(tǒng)新聞倫理約束的信息智能系統(tǒng)所造成的社會(huì)代價(jià)。
過(guò)度依賴算法推薦的新聞價(jià)值排序,會(huì)產(chǎn)生傳播權(quán)(新聞價(jià)值權(quán)重排序決策權(quán))、信息自由(人的傳播自主性)、信息觸達(dá)(服務(wù)的普適性、信息的不當(dāng)觸達(dá))、信息隱私權(quán)和數(shù)字身份及其保護(hù)的問(wèn)題。目前有兩種倫理風(fēng)險(xiǎn)已經(jīng)引起廣泛的關(guān)注:數(shù)據(jù)安全和算法偏見(jiàn)。
機(jī)器學(xué)習(xí)是一種從數(shù)據(jù)中挖掘和發(fā)現(xiàn)固有模式的一種方法。機(jī)器學(xué)習(xí)的有效性取決于用來(lái)進(jìn)行訓(xùn)練的數(shù)據(jù)質(zhì)量和數(shù)量,機(jī)器是否有權(quán)進(jìn)行個(gè)人信息挖掘等問(wèn)題引發(fā)了重大的倫理爭(zhēng)議。
算法偏見(jiàn)和糾偏也是一個(gè)倫理關(guān)注焦點(diǎn)。2018年美國(guó)公民自由聯(lián)盟批評(píng)亞馬遜Rekognition人臉識(shí)別工具。經(jīng)過(guò)測(cè)試表明,對(duì)于膚色較深的人,Rekognition的識(shí)別效果較差。谷歌所研制的圖像標(biāo)注系統(tǒng)曾錯(cuò)誤地將黑人標(biāo)記為“大猩猩”(Sandvig et al.,2016),這就不得不讓人們對(duì)算法強(qiáng)化社會(huì)原有偏見(jiàn)的可能性充滿憂慮。
以歐盟為代表的國(guó)家和地區(qū)開(kāi)始強(qiáng)勢(shì)介入人工智能立法,《通用數(shù)據(jù)保護(hù)條例(GDPR)》的實(shí)行產(chǎn)生了巨大的行業(yè)震動(dòng),導(dǎo)至行業(yè)寒蟬效應(yīng)。相對(duì)于規(guī)制硬約束,在人工智能社會(huì)構(gòu)建前景尚未明朗之前,倫理軟約束則更加適合。有效的倫理治理需要分清楚責(zé)任主體,特別是在智能技術(shù)深度介入新聞信息傳播的當(dāng)下,一些原本不在新聞倫理探討范圍內(nèi)的行動(dòng)者進(jìn)入該領(lǐng)域,他們的作用和問(wèn)責(zé)方式,亟待理論梳理。
人工智能時(shí)代新聞倫理的道德行動(dòng)者
一般意義上,倫理是“對(duì)我們應(yīng)該做的事情的研究”(Merrill,2011:3)。在元倫理和規(guī)范倫理學(xué)層面,倫理研究通常被區(qū)分為三種傳統(tǒng)。首先是強(qiáng)調(diào)人類相互作用的責(zé)任和義務(wù)的道德義務(wù)論,康德認(rèn)為可以通過(guò)相關(guān)正式準(zhǔn)則,特別是普遍性準(zhǔn)則將道德規(guī)則和其他行為規(guī)則區(qū)分開(kāi)來(lái)(Kant,1785)。其次是邊沁(Bentham,1785)、密爾(Mill,1962)開(kāi)創(chuàng)的功利主義傳統(tǒng)。該傳統(tǒng)把最大化社會(huì)效用作為最基本的道德準(zhǔn)則,這種傳統(tǒng)也被稱為后果論。最后是美德論,核心問(wèn)題不是正確行動(dòng),而是美好生活,道德也不在于行事原則,更在于人們的品質(zhì),這就重回亞里士多德 “我應(yīng)該成為什么樣的人”的經(jīng)典論述。
在應(yīng)用倫理學(xué)層面的分析中,基于問(wèn)責(zé)的考量往往需要區(qū)分道德行動(dòng)者。一般認(rèn)為,具有道德意向性和能動(dòng)性,并具有行動(dòng)力和對(duì)自身行動(dòng)的解釋能力(Taylor Paul,1986:14),是道德行動(dòng)者的基本條件。技術(shù)人工物一定程度上突破了倫理道德的人類中心主義,倫理學(xué)家開(kāi)始將意向性視為道德能動(dòng)性的一個(gè)“不錯(cuò)但卻不必要的條件”,與道德能動(dòng)性相關(guān)的唯一事物是行動(dòng)者的行為是否是“道德上可修飾的”,即是否引發(fā)道德上的善或惡(Floridi L,Sanders J W,2004)。
新聞倫理屬于應(yīng)用倫理學(xué)研究,研究起點(diǎn)是基于行業(yè)的實(shí)際倫理難題進(jìn)行價(jià)值判斷?,F(xiàn)代性大眾傳播觀念和倫理觀念根植于以啟蒙運(yùn)動(dòng)為代表的知識(shí)革命,笛卡爾、洛克、彌爾頓、穆勒等學(xué)者的經(jīng)典論述是其中的主要智識(shí)資源。施拉姆結(jié)合媒體發(fā)展現(xiàn)實(shí)指出,如何妥善處理大眾品味、企業(yè)盈利和社會(huì)責(zé)任三者的關(guān)系是大眾媒體面對(duì)的主要問(wèn)題(Wilbur Schramm,1957),其中知情權(quán)和隱私權(quán)、表達(dá)權(quán)和名譽(yù)權(quán)持續(xù)產(chǎn)生張力,就此,政府、媒體和公眾成為新聞倫理關(guān)系的核心行動(dòng)者。
人工智能時(shí)代,隨著算法在不同的生活領(lǐng)域產(chǎn)生建構(gòu)性影響,算法作為內(nèi)容創(chuàng)建者的制度化引發(fā)了專業(yè)新聞的各種倫理挑戰(zhàn)。其中,互聯(lián)網(wǎng)信息平臺(tái)公司,對(duì)算法研發(fā)起到核心作用的工程師團(tuán)隊(duì),甚至是技術(shù)本身是否應(yīng)該作為倫理行動(dòng)者進(jìn)入了新聞倫理的話語(yǔ)框架,值得細(xì)致分析。
新聞倫理的傳統(tǒng)行動(dòng)者。1、政府:倫理治理的規(guī)則制定者與底線管控者。變革性技術(shù)總是同時(shí)帶來(lái)正面和負(fù)面效應(yīng),人類也逐漸摸索出一套技術(shù)控制模式。這種模式一般包含兩個(gè)方面,其一是社會(huì)規(guī)范性的,如法律、法規(guī);其二是技術(shù)性的,即對(duì)技術(shù)設(shè)計(jì)和運(yùn)用制定標(biāo)準(zhǔn)。這兩項(xiàng)工作都需要國(guó)家,甚至國(guó)家間的合作方能達(dá)成。
對(duì)于人工智能的管理,政府顯性地扮演兩種角色。首先,是在國(guó)家戰(zhàn)略層面,通過(guò)行業(yè)規(guī)劃和部署,將技術(shù)開(kāi)發(fā)、產(chǎn)業(yè)發(fā)展作為核心戰(zhàn)略要素,在國(guó)際競(jìng)爭(zhēng)的語(yǔ)境下予以通盤(pán)考慮。在我國(guó),國(guó)務(wù)院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》和《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018~2020年)》等政策,讓中國(guó)的人工智能發(fā)展有了明確的時(shí)間表和路線圖。2016年10月美國(guó)政府出臺(tái)了“美國(guó)國(guó)家人工智能研發(fā)規(guī)劃”,加拿大、英國(guó)、德國(guó)、法國(guó)等國(guó)家也針對(duì)人工智能研究和機(jī)器人設(shè)計(jì)出臺(tái)專門(mén)的戰(zhàn)略規(guī)劃和規(guī)范性報(bào)告。其次,是從司法實(shí)踐角度,各國(guó)也有專門(mén)法規(guī),如歐盟《一般數(shù)據(jù)保護(hù)條例》和美國(guó)《人工智能未來(lái)法案》等。
值得注意的是,各國(guó)對(duì)人工智能的倫理反應(yīng)早于立法研究,歐盟于2006年發(fā)布《機(jī)器人倫理路線圖》,2007年韓國(guó)工商能源部頒布《機(jī)器人倫理憲章》等,體現(xiàn)政府相關(guān)部門(mén)對(duì)人工智能倫理治理的關(guān)注。這些倫理研究報(bào)告其實(shí)在為其后的立法和規(guī)制進(jìn)行倫理學(xué)和法理學(xué)的籌備,對(duì)自主智能體的主體地位、問(wèn)責(zé)模式和人類行為規(guī)范,作了初步設(shè)想。
著名的“科林格瑞治困境”指出了技術(shù)評(píng)估的兩難困境:在技術(shù)發(fā)展的早期控制其應(yīng)用方向相對(duì)容易,但此時(shí)決策者缺少合理控制的專業(yè)知識(shí);當(dāng)技術(shù)應(yīng)用的風(fēng)險(xiǎn)顯露時(shí),對(duì)它的控制卻幾近不可能(卡爾·米切姆、朱勤、安延明,2007)。各國(guó)政府的人工智能倫理治理和立法實(shí)踐如此迅速,某種程度上也在規(guī)避上述規(guī)制困境,尤其是人工智能被普遍認(rèn)為是一個(gè)具備高度社會(huì)建構(gòu)性能力的系統(tǒng),各國(guó)政府不約而同采取了相對(duì)前置的治理模式。
2、媒體:新聞倫理的日常踐行者。媒體是新聞倫理中最為核心的部分,因?yàn)閭鹘y(tǒng)新聞生產(chǎn)、分發(fā)都在該系統(tǒng)內(nèi)完成。自1923年美國(guó)報(bào)紙編輯協(xié)會(huì)提出美國(guó)首個(gè)新聞業(yè)自律規(guī)范《報(bào)人守則》,新聞倫理就與新聞工作者的職業(yè)倫理和行業(yè)自律掛鉤。
在前互聯(lián)網(wǎng)時(shí)代,新聞倫理通常與報(bào)道內(nèi)容及其選擇相掛鉤,責(zé)任、獨(dú)立、真實(shí)準(zhǔn)確、公正、公平等原則以不同的形式予以表達(dá)。在絕大部分的媒體體制之下,媒體不僅具有社會(huì)公共性,本身作為承擔(dān)一定經(jīng)營(yíng)活動(dòng)的組織,也需要考慮經(jīng)濟(jì)層面的可持續(xù)發(fā)展問(wèn)題。因此,大眾化媒體如何處理公共服務(wù)和商業(yè)利益之間的張力,以兼顧經(jīng)濟(jì)效益和社會(huì)效益,是新聞倫理的主要關(guān)切點(diǎn)。在此間所產(chǎn)生的媒體與國(guó)家的關(guān)系、媒體與社會(huì)的關(guān)系、媒體與個(gè)體的關(guān)系,也是新聞倫理的核心焦點(diǎn)。
社交媒體和智能推薦算法的結(jié)合,改變了受眾獲得信息的主要渠道和接受模式,傳統(tǒng)媒體的議程設(shè)置功能受到較大沖擊,部分媒體開(kāi)始被迫跟隨社交媒體表達(dá)模式改變自身的新聞生產(chǎn)方式。但是2016年美國(guó)大選所引發(fā)的“后真相”討論,恰恰說(shuō)明社會(huì)仍然需要“不可愛(ài)的新聞界” (邁克爾·舒德森、周巖,2017)。潘忠黨、陸曄(2017)認(rèn)為“后真相”一詞的流行更加凸顯新聞專業(yè)主義不僅是對(duì)媒介和新聞從業(yè)者的職業(yè)期許,更是全社會(huì)所遵循的文化價(jià)值體系的一部分。新聞界需要做的是將尋求、核查、鑒定事實(shí)和真相的過(guò)程置于公共討論之中,重構(gòu)交往的倫理規(guī)范。(潘忠黨、陸曄,2018)
3、公眾:“用腳投票”的新聞倫理批評(píng)者。自20世紀(jì)20年代杜威和李普曼的爭(zhēng)論為起始,公眾是具有公共目的的社會(huì)有機(jī)統(tǒng)一體,還是原子化的消極“幻影”,存在根本性的學(xué)術(shù)分歧。而學(xué)術(shù)界對(duì)公眾在新聞傳播系統(tǒng)中的作用,也始終存在爭(zhēng)議。
在傳統(tǒng)新聞傳播中,公眾作為信息的接收者,處于被動(dòng)地位。但是即便在這種相對(duì)的被動(dòng)位置中,施拉姆指出閱聽(tīng)大眾應(yīng)以傳播動(dòng)力的主要推動(dòng)者自任。大眾的基本責(zé)任是運(yùn)用一切可能,使自己成為機(jī)警而又有鑒別能力的閱聽(tīng)大眾,學(xué)習(xí)如何運(yùn)用媒體,并積極地對(duì)媒體展開(kāi)睿智的批評(píng)(Wilbur Schramm,1957)。
在人工智能時(shí)代,“你關(guān)心的就是頭條”的算法邏輯,使得公眾或者說(shuō)用戶的地位得到了進(jìn)一步提升。信息平臺(tái)認(rèn)為自身不存在新聞立場(chǎng),算法的主要目的在于加強(qiáng)用戶的黏性。2016年以來(lái),F(xiàn)acebook推出一系列機(jī)制,強(qiáng)調(diào)保障用戶對(duì)最終內(nèi)容的選擇權(quán),其中尤為強(qiáng)調(diào)3F原則(Friends and Family First),即好友分享的優(yōu)先級(jí)高于新聞媒體發(fā)布的消息。這一算法權(quán)重變化的目的在于,從“幫助你找到相關(guān)的內(nèi)容”轉(zhuǎn)向“實(shí)現(xiàn)用戶有意義的社會(huì)互動(dòng)”,即促成用戶間的討論和深度參與。賦權(quán)用戶而非傳統(tǒng)強(qiáng)勢(shì)機(jī)構(gòu),是算法所強(qiáng)調(diào)的平權(quán)價(jià)值。但是其后所引發(fā)的虛假消息充斥社交媒體,也是傳統(tǒng)機(jī)構(gòu)媒體權(quán)重下降后的副作用。
人工智能系統(tǒng)非常有效地通過(guò)用戶日漸增多的網(wǎng)絡(luò)行為數(shù)據(jù)進(jìn)行精準(zhǔn)內(nèi)容推薦,公眾是被動(dòng)接受偏好的信息從而陷入信息繭房,還是有意識(shí)地通過(guò)綜合使用媒體平臺(tái),形成更加理性而多元的社會(huì)認(rèn)知,其重任日益集中到個(gè)體自身。因此現(xiàn)階段至少可以相對(duì)確定地說(shuō),公眾作為新聞倫理的行動(dòng)者,在人工智能時(shí)代所肩負(fù)的責(zé)任將更加重大。
人工智能時(shí)代的新增新聞倫理行動(dòng)者。當(dāng)下,互聯(lián)網(wǎng)信息平臺(tái)公司在新聞傳播過(guò)程中產(chǎn)生了日益重要的中介作用,傳統(tǒng)關(guān)于信息和新聞的分野也變得模糊。弗洛里迪在《信息倫理學(xué)》中指出,信息是一種資源、一種產(chǎn)品,也是一種目標(biāo)。借助信息與通訊技術(shù)手段為媒介的信息生產(chǎn)與傳播引發(fā)了倫理后果,合理應(yīng)對(duì)這些后果需要更多的智識(shí)動(dòng)員和道德行動(dòng)者(盧恰克·弗洛里迪,2018)。
在線平臺(tái)傳統(tǒng)上不屬于新聞傳播范疇,互聯(lián)網(wǎng)企業(yè)也往往不承認(rèn)自身的“媒體”性質(zhì),而傾向?qū)⒆陨砻枋龀尚畔鞑サ幕A(chǔ)設(shè)施,平臺(tái)上傳輸和交換的是數(shù)據(jù)(data)而非傳統(tǒng)意義的新聞內(nèi)容。但是當(dāng)人類的交往活動(dòng)和商業(yè)活動(dòng)日益集中到網(wǎng)絡(luò)平臺(tái),互聯(lián)網(wǎng)信息平臺(tái)公司的角色就發(fā)生了變化。研究指出,像谷歌、Facebook這樣的公司往往起步于具體的垂直應(yīng)用,例如搜索、社交,但是為了將用戶進(jìn)一步固定在自身的商業(yè)平臺(tái)上,他們的功能日益多元。因此在更加廣泛的意義上,網(wǎng)絡(luò)生態(tài)嵌入了更廣大的社會(huì)文化和政治經(jīng)濟(jì)語(yǔ)境之中(Jose Van Dijck,2013),這一趨勢(shì)伴隨著科技所導(dǎo)致的社會(huì)形態(tài)變化,變得勢(shì)不可擋。
近年來(lái)互聯(lián)網(wǎng)信息平臺(tái)公司已經(jīng)成為傳播倫理的核心關(guān)注區(qū)域。2018年Facebook的扎克伯格和今日頭條的張一鳴,近乎在同一天面對(duì)主管部門(mén)的質(zhì)詢,并向公眾道歉。
Facebook信任危機(jī)的觸發(fā)點(diǎn)在于個(gè)人隱私泄露最終形成干預(yù)選舉的危害。據(jù)披露,F(xiàn)acebook上超過(guò)5000萬(wàn)用戶信息數(shù)據(jù)被一家名為“劍橋分析”(Cambridge Analytica)的公司泄露,用于在2016年美國(guó)總統(tǒng)大選中針對(duì)目標(biāo)受眾推送廣告,從而影響大選結(jié)果,此事在世界范圍內(nèi)引發(fā)了軒然大波。扎克伯格就此接受美國(guó)國(guó)會(huì)質(zhì)詢。
而字節(jié)跳動(dòng)公司則因旗下產(chǎn)品存在低俗內(nèi)容和導(dǎo)向問(wèn)題,受到主管部門(mén)處罰。應(yīng)用市場(chǎng)下架了今日頭條客戶端,并暫停服務(wù)三周;“內(nèi)涵段子”客戶端軟件及公眾號(hào)被責(zé)令永久關(guān)停;短視頻應(yīng)用抖音APP刪除了所有用戶評(píng)論。此后“今日頭條”品牌口號(hào)也從“你關(guān)心的就是頭條”轉(zhuǎn)變?yōu)?ldquo;信息創(chuàng)造價(jià)值”。
對(duì)互聯(lián)網(wǎng)信息平臺(tái)上存在的倫理失范內(nèi)容,平臺(tái)應(yīng)該承擔(dān)怎樣的法律責(zé)任,學(xué)術(shù)界存在爭(zhēng)議,也存在實(shí)際的問(wèn)責(zé)困境。被廣泛應(yīng)用的避風(fēng)港原則成為互聯(lián)網(wǎng)平臺(tái)抗辯的主要依據(jù),判定并不直接生產(chǎn)和編輯內(nèi)容的互聯(lián)網(wǎng)平臺(tái)企業(yè)侵權(quán),難度很大。但平臺(tái)企業(yè)在內(nèi)容處理方面的失誤,將極大地影響社會(huì),因此它們不可避免地需要承擔(dān)平衡不同權(quán)利主體的重任。但是直到最近,遏制非法、不恰當(dāng)內(nèi)容的重任始終在用戶身上,平臺(tái)主要通過(guò)舉報(bào)來(lái)發(fā)現(xiàn)類似信息。
當(dāng)然,平臺(tái)主動(dòng)遏制它所界定的不適宜行為,也面臨挑戰(zhàn)。例如Facebook公司曾經(jīng)通過(guò)機(jī)器鑒別遏制裸體展示,哺乳婦女的照片和反映越戰(zhàn)的知名攝影作品《戰(zhàn)火中的女孩》也因此歸入此類,這兩件事都讓Facebook公司承受了巨大的壓力,并引發(fā)關(guān)于平臺(tái)歧視的擔(dān)憂??傮w而言,平臺(tái)公司類似舉措都容易導(dǎo)致偏愛(ài)主流人群而壓抑邊緣人群的結(jié)果。雖然類似舉措未必隱含制度化和規(guī)?;娜后w歧視,但的確提出平臺(tái)如何更好履行責(zé)任的疑慮(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在線平臺(tái)日益發(fā)現(xiàn),算法可以有效增進(jìn)用戶黏性,卻在內(nèi)容審核和審美品鑒方面無(wú)法全面掌握復(fù)雜而多元的人類行為變量。例如,機(jī)器目前對(duì)于模式不斷轉(zhuǎn)換且非常主觀化的仇恨言論,判定表現(xiàn)就不是太好。
關(guān)于人工智能時(shí)代的平臺(tái)責(zé)任的討論,往往也牽扯出智能技術(shù)本身的倫理主體地位問(wèn)題。在廣為引用的《關(guān)于人工能動(dòng)者的道德》一文中,牛津大學(xué)教授弗洛里迪和桑德斯依據(jù)行動(dòng)者之互動(dòng)關(guān)系標(biāo)準(zhǔn),確立交互性、自主性和適應(yīng)性三個(gè)標(biāo)準(zhǔn)以判定智能技術(shù)是否具備倫理責(zé)任主體地位。他們認(rèn)為,一個(gè)與其環(huán)境持續(xù)產(chǎn)生交互的系統(tǒng),如果在沒(méi)有響應(yīng)外部刺激的情況下也能行動(dòng),也有在不同的環(huán)境中行動(dòng)的能力,這個(gè)系統(tǒng)就可以被視作行動(dòng)者(Floridi L,Sanders J W,2004)。
倫理學(xué)界對(duì)技術(shù)人工物的道德主體地位存在較大爭(zhēng)議。在新聞倫理的探討范疇中,智能技術(shù)對(duì)信息傳播權(quán)重的計(jì)算的確在很大程度上影響了新聞信息交流活動(dòng)。但是直到目前,智能技術(shù)尚未完全達(dá)到自主性和適應(yīng)性,將其判定為獨(dú)立的倫理行動(dòng)者論據(jù)不足。
所以就目前的技術(shù)發(fā)展?fàn)顩r而言,更為重要的是確立互聯(lián)網(wǎng)信息平臺(tái)公司的新聞倫理地位。依據(jù)目前他們?cè)谌祟愋畔鞑セ顒?dòng)中的重要性,以及他們實(shí)際可以起到的信息推薦中介效應(yīng),互聯(lián)網(wǎng)信息平臺(tái)應(yīng)該被納入新聞倫理的范疇,并作為其間一個(gè)重要的機(jī)構(gòu)行動(dòng)者予以關(guān)照。
平臺(tái)也開(kāi)始意識(shí)到自身的倫理主體責(zé)任,主動(dòng)開(kāi)始在技術(shù)研發(fā)和產(chǎn)品開(kāi)發(fā)的過(guò)程中嵌入倫理考慮。2016年9月,亞馬遜、谷歌、Facebook、IBM和微軟宣布成立一家非營(yíng)利組織:人工智能合作組織(Partnership on AI),目標(biāo)是為人工智能的研究制定和提供范例,推進(jìn)公眾對(duì)人工智能的了解,并作為一個(gè)開(kāi)放的平臺(tái)來(lái)吸引民眾及社會(huì)的參與和討論。目前各國(guó)的司法實(shí)踐,也在強(qiáng)迫他們認(rèn)識(shí)到自身不僅需要承擔(dān)技術(shù)倫理和商業(yè)倫理,也需要在新聞倫理的框架內(nèi)規(guī)制自身的行為。
人工智能時(shí)代的新聞倫理結(jié)構(gòu)
綜上所述,人工智能時(shí)代新聞倫理的道德行動(dòng)者出現(xiàn)了變化,顯性地表現(xiàn)為增加了一個(gè)重要的機(jī)構(gòu)行動(dòng)者,我們姑且將它們稱為互聯(lián)網(wǎng)信息平臺(tái)公司。與此同時(shí),傳統(tǒng)的道德行動(dòng)者——政府、媒體、公眾,它們?cè)趥惱韴D景中的位置和行為模式也產(chǎn)生了變化。政府在規(guī)制方面采取了更加前瞻式的模式以應(yīng)對(duì)變革性技術(shù)的社會(huì)構(gòu)建動(dòng)能。公眾在人工智能時(shí)代的個(gè)性化信息服務(wù)背景下,其倫理素養(yǎng)和媒介素養(yǎng)變得更加事關(guān)全局。而傳統(tǒng)媒體機(jī)構(gòu)在算法推薦邏輯下,面臨權(quán)重下降的境遇,其傳統(tǒng)新聞生產(chǎn)流程和倫理價(jià)值面臨沖擊。
為了更清晰地展現(xiàn)各道德行動(dòng)者之間的倫理互動(dòng)結(jié)構(gòu),有必要進(jìn)一步區(qū)分不同行動(dòng)者的區(qū)位。個(gè)人倫理層次、組織倫理層次、社會(huì)倫理層次的區(qū)分有助于進(jìn)一步明晰對(duì)此問(wèn)題的論述。
第一,個(gè)人倫理層次,主要包括新聞專業(yè)主義和工程師倫理。傳統(tǒng)新聞倫理具有很強(qiáng)的個(gè)人倫理色彩,記者、編輯就自己生產(chǎn)的新聞內(nèi)容承擔(dān)風(fēng)險(xiǎn)、享受贊譽(yù)。在新聞專業(yè)主義理論體系下,個(gè)人層次的倫理認(rèn)知,不僅是職業(yè)認(rèn)知的重要組成部分,也是新聞機(jī)構(gòu)權(quán)威性的主要來(lái)源??陀^、公正、服務(wù)公共利益,是新聞工作者長(zhǎng)期珍視的倫理傳統(tǒng)。
自動(dòng)化新聞平臺(tái)將工程師也納入新聞傳播領(lǐng)域,他們所編寫(xiě)的代碼直接影響新聞倫理。因此工程師團(tuán)體需要通過(guò)合理的結(jié)構(gòu)代碼完成其倫理責(zé)任。
責(zé)任是知識(shí)和力量的函數(shù)。在智能信息時(shí)代,科學(xué)家、工程師不僅人數(shù)眾多而且參與社會(huì)重大的決策和管理,他們的行為會(huì)對(duì)他人、對(duì)社會(huì)帶來(lái)比其他人更大的影響,因此他們應(yīng)負(fù)更多的倫理責(zé)任(曹南燕,2000)。
在過(guò)去25年中,工程倫理領(lǐng)域的主要成就之一就是工程師們?cè)絹?lái)越意識(shí)到自身的價(jià)值觀對(duì)設(shè)計(jì)進(jìn)程的影響,以及此過(guò)程中他們對(duì)他人價(jià)值觀的敏感度(Wallach & Allen,2008)。2000年,美國(guó)工程和技術(shù)認(rèn)證委員會(huì)(ABET)在其標(biāo)準(zhǔn)中明確指出,工程教育必須證明他們的學(xué)生“對(duì)職業(yè)和道德責(zé)任的理解”(Downey et al.,2007)。奧巴馬政府2016年10月將“理解并解決人工智能的道德、法律和社會(huì)影響”列入美國(guó)國(guó)家人工智能戰(zhàn)略,并建議AI從業(yè)者和學(xué)生都要接受倫理培訓(xùn)(曹建峰,2016)。
與此同時(shí),鑒于大量的媒體內(nèi)容來(lái)自用戶生成內(nèi)容,涉足其間的個(gè)體制作者及其倫理素養(yǎng)也在此列。目前在直播和短視頻平臺(tái)時(shí)常出現(xiàn)倫理失范行為,個(gè)體內(nèi)容生產(chǎn)者是直接的道德行動(dòng)者,需要在與平臺(tái)倫理原則磨合的過(guò)程中形成行為規(guī)則共識(shí)。
對(duì)于亞里士多德來(lái)說(shuō),具備關(guān)于倫理規(guī)則的知識(shí)和自覺(jué)遵守倫理規(guī)則的能力是兩個(gè)不同的方面。只有當(dāng)人們?cè)趦?nèi)在本性和對(duì)善生活的追求基礎(chǔ)上,自覺(jué)地尊重倫理規(guī)則,才是符合倫理和美德的個(gè)體(麥金泰爾,1996)。在內(nèi)容龐雜的社交媒體和互聯(lián)網(wǎng)信息平臺(tái)中,美德論對(duì)于個(gè)體層次的倫理治理,也許具有更大的啟示意義。
第二,組織倫理層次,主要涉及新聞組織和互聯(lián)網(wǎng)信息平臺(tái)。傳統(tǒng)新聞媒體對(duì)其生產(chǎn)的內(nèi)容及其經(jīng)濟(jì)運(yùn)行負(fù)有倫理責(zé)任,與此同時(shí),媒體的言論對(duì)政治、經(jīng)濟(jì)和社會(huì)都有巨大影響。雖然在傳統(tǒng)生產(chǎn)流程中,記者作為顯性的新聞倫理踐行者,對(duì)自身的報(bào)道肩負(fù)倫理責(zé)任,但是媒體承擔(dān)著重要的把關(guān)功能,并在科層式的生產(chǎn)模式中內(nèi)化組織宗旨和目標(biāo)。在媒體組織內(nèi)部,知情權(quán)與隱私權(quán)、表達(dá)權(quán)和名譽(yù)權(quán)的權(quán)衡,公共服務(wù)和經(jīng)營(yíng)目標(biāo)的平衡,形成多組競(jìng)爭(zhēng)性倫理價(jià)值,需要在新聞媒體組織層面根據(jù)其倫理傳統(tǒng)針對(duì)具體問(wèn)題予以價(jià)值排序。長(zhǎng)期以來(lái),客觀、公正和最小傷害成為十分重要的組織倫理出發(fā)點(diǎn)。
到了人工智能時(shí)代,互聯(lián)網(wǎng)信息平臺(tái)實(shí)際上部分起到了新聞媒體的功能。與傳統(tǒng)新聞媒體更多關(guān)注新聞的生產(chǎn)不同,目前的互聯(lián)網(wǎng)企業(yè)并不直接涉足新聞內(nèi)容制作,但是其推薦算法實(shí)際在對(duì)新聞價(jià)值的不同維度予以賦值,隨著越來(lái)越多的民眾將互聯(lián)網(wǎng)作為主要的新聞信息來(lái)源,互聯(lián)網(wǎng)信息平臺(tái)在新聞分發(fā)和互動(dòng)環(huán)節(jié)產(chǎn)生了巨大的動(dòng)能?;ヂ?lián)網(wǎng)信息平臺(tái)的倫理關(guān)注點(diǎn)主要在數(shù)據(jù)和代碼(算法)兩個(gè)體系,如何合理利用平臺(tái)積淀的用戶數(shù)據(jù),如何合理通過(guò)算法的中介,提高社會(huì)總體福利水平,是此類組織的倫理責(zé)任。
目前技術(shù)本身的倫理地位也存在爭(zhēng)議,在用戶偏好挖掘的機(jī)器學(xué)習(xí)機(jī)制中,平臺(tái)公司會(huì)部分采取無(wú)監(jiān)督學(xué)習(xí)模式,這使得學(xué)習(xí)結(jié)果存在客觀上的算法黑箱。這也是智能系統(tǒng)設(shè)計(jì)的悖論:一方面系統(tǒng)需要更大的自由度以體現(xiàn)其智能效能,但具備自主學(xué)習(xí)能力的系統(tǒng)在技術(shù)上和倫理上都存在風(fēng)險(xiǎn);另一方面,若將倫理規(guī)則嵌入智能系統(tǒng),那么設(shè)計(jì)出來(lái)的系統(tǒng)就缺乏充分的靈活性,也就不夠“智能”。但是從目前的倫理問(wèn)責(zé)和司法實(shí)踐看,互聯(lián)網(wǎng)信息平臺(tái)作為算法的直接開(kāi)發(fā)者和版權(quán)所有者,有義務(wù)將智能系統(tǒng)設(shè)計(jì)為道德智能體,將社會(huì)長(zhǎng)期珍視的倫理價(jià)值內(nèi)嵌至平臺(tái)系統(tǒng)。據(jù)此,大眾傳播責(zé)任的兩種形態(tài)行動(dòng)——自律制度、專業(yè)精神,同樣適用于互聯(lián)網(wǎng)信息平臺(tái)公司。
第三,社會(huì)倫理層次,包括政治和公眾兩個(gè)維度。在政治維度,如何處理互聯(lián)網(wǎng)信息平臺(tái)、新聞媒體和社會(huì)其他部門(mén)的關(guān)系,如何管理技術(shù)的發(fā)展方向、媒體信息的作用范圍,是政治層面關(guān)注的焦點(diǎn),也因此與新聞系統(tǒng)產(chǎn)生權(quán)力博弈和倫理話語(yǔ)沖突。
電氣和電子工程師協(xié)會(huì)(IEEE)2017年發(fā)布《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書(shū)(Ethically Aligned Design),這份報(bào)告不僅對(duì)工程師群體的倫理設(shè)計(jì)提出要求,并且在宏觀上希望政府、司法機(jī)構(gòu)審慎使用數(shù)據(jù),必要的時(shí)候嚴(yán)格測(cè)試和評(píng)估內(nèi)嵌于系統(tǒng)的倫理原則和運(yùn)算邏輯。而且政府和產(chǎn)業(yè)利益相關(guān)者需要明確,哪些核心決策權(quán)不能交由智能系統(tǒng)。
因此在更加宏觀的社會(huì)倫理治理層次,政府作為主要的道德行動(dòng)者,需要從社會(huì)整體福利水平和國(guó)家信息安全的高度理解人工智能系統(tǒng)的信息中介效應(yīng),對(duì)其引導(dǎo)輿論、影響個(gè)體的能力保持倫理警覺(jué),并逐漸清晰政府的管控底線。
在公眾維度,以往新聞很大程度上依賴于記者的信譽(yù),如今在網(wǎng)絡(luò)信息發(fā)布過(guò)程中,受眾不再被動(dòng),任何人都有權(quán)利批評(píng)報(bào)道、增加事實(shí)和發(fā)表評(píng)論。就此,新聞發(fā)表從個(gè)人化的行為(組織化的行為)轉(zhuǎn)變?yōu)楣驳男袨椋╓ard, 2011)。在智能時(shí)代,公眾的倫理素養(yǎng)至少包含明確是誰(shuí)作出或者支持智能系統(tǒng)的倫理決策,并且理解自動(dòng)技術(shù)系統(tǒng)的社會(huì)影響的能力。公眾需要更加清晰智能系統(tǒng)的運(yùn)作模式和社會(huì)影響機(jī)制,運(yùn)用理性力量加強(qiáng)自身的信息自律能力,而不要成為機(jī)械刺激性快樂(lè)的被捕獲者,從而喪失了對(duì)康樂(lè)生活的追求和反思能力。
媒體的智能化,大大延伸了媒體的外延,將新聞傳播推向“萬(wàn)物皆媒”的時(shí)代。新聞倫理學(xué)的研究范疇也隨之由新聞工作者、新聞機(jī)構(gòu)、新聞受眾延向了傳播技術(shù)和社交平臺(tái)。由于人工智能技術(shù)的出現(xiàn),更多的行動(dòng)者開(kāi)始參與或影響新聞的生產(chǎn)與發(fā)布,新聞工作者不再是唯一的道德行動(dòng)者,泛信息系統(tǒng),特別是互聯(lián)網(wǎng)信息平臺(tái)的影響力正在逐漸上升。
自治、公平、正義、責(zé)任、服務(wù)公共利益等原則是長(zhǎng)期以來(lái)新聞倫理的基本組成部分。智媒時(shí)代,除了進(jìn)一步堅(jiān)持傳統(tǒng)媒體倫理價(jià)值體系之外,還需要融合基于技術(shù)和平臺(tái)的倫理要求。機(jī)器人倫理提出的人的尊嚴(yán)和人權(quán)、責(zé)任、透明度、避免濫用和共生繁榮等原則,也是人工智能時(shí)代新聞倫理的智識(shí)來(lái)源。而互聯(lián)網(wǎng)平臺(tái)公司,如谷歌提倡的“七條準(zhǔn)則”:有益于社會(huì)、避免創(chuàng)造或增強(qiáng)偏見(jiàn)、對(duì)人們有說(shuō)明義務(wù)、根據(jù)原則確定合適的應(yīng)用等,也同樣適合新媒體背景下的新聞倫理。
(本文系“數(shù)字化變革中媒體從業(yè)者倫理勝任力建模及提升策略”課題的階段性成果,課題編號(hào):2018FZA121;同時(shí)受中央高校基本科研業(yè)務(wù)費(fèi)專項(xiàng)資金資助)
參考文獻(xiàn)
Bakshy E, Messing S, Adamic L A., 2015, "Exposure to ideologically diverse news and opinion on Facebook", Science, vol. 348, pp. 1130-1132.
Bentham J., 1996, The collected works of Jeremy Bentham: An introduction to the principles of morals and legislation, Clarendon Press.
Bill Kovach, Tom Rosenstiel, 2007, The Elements of Journalism, New York: Three Rivers Press.
Downey, Gary Lee, Juan C. Lucena and Carl Mitcham., 2007, "Engineering Ethics and Identity: EmergingInitiatives in Comparative Perspective", Science & Engineering Ethics, No. 4, pp. 463-487.
Dörr, K. N. & Hollnbuchner K., 2017, "Ethical challenges of algorithmic journalism", Digital Journalism, 5(4), pp. 404-419.
Filippo A. Raso,Hannah Hilligoss, Vivek Krishnamurthy, Christopher Bavitz , Levin Kim , 2018, Artificial Intelligence & Human Rights: Opportunities & Risks, Berkman Klein Center Research Publication.
Glasser T. L., 1989, "Three Views on Accountability", Media Freedom and Accountability, edited by E. E. Dennis, D. M. Gillmor, and T. L. Glasser, New York: Praeger, pp. 179-193.
Jeffrey Rosen, 2013, "The Deciders: Facebook, Google, and the Future of Privacy and Free Speech", Constitution 3.0: Freedom and Technological Change. ed. Jeffrey Rosen and Benjamin Wittes, Brookings Institution Press; Jonathan Zittrain, 2008, The future of the internet--and how to stop it, Yale University Press.
Jose Van Dijck, 2013, The Culture of Connectivity: A Critical History of Social Media, Oxford University Press.
Kant I, Schneewind J. B., 2002, Groundwork for the Metaphysics of Morals, Yale University Press.
Kovach B. & Rosenstiel T., 2007, The elements of journalism (Rev. ed.), New York: Three Rivers Press.
Luciano Floridi, J.W. Sanders, 2004, "On the morality of artificial agents", Minds and Machines , vol.14, pp. 349-379.
Merrill, J. C. , 2011, "Theoretical Foundations for Media Ethics", in A.D. Gordon, J.M. Kittross, J.C. Merrill, W. Babcock, and M. Dorsher (eds), Controversies in Media Ethics, pp.3-32.
Mill, J. S., 1962, Utilitarianism, on liberty, essay on Bentham, ed. Mary Warnock, London: Fontana.
Parry R., 2011, The Ascent of Media: From Gilgamesh to Google via Gutenburg, London: Nicholas Brealey.
Pavlik J., 2000, "The impact of technology on journalism, Journalism Studies", No.2, pp. 229-237.
Paul Taylor, 1986, Respect of Nature: A Theory of Environmental Ethics, Princeton University Press.
Sandvig C, Hamilton K, Karahalios K, et al., 2016, "Automation, algorithms, and politics| when the algorithm itself is a racist: Diagnosing ethical harm in the basic components of software", International Journal of Communication, No.10, pp. 4972–4990.
Selgado, Susana and Jesper Strömbäck, 2012,"Interpretive Journalism: A Review of Concepts, Operationalizations and Key Findings", Journalism Theory Practice & Criticism, No.13 (2), pp. 144–161.
Taylor Paul, W., 1986, Respect for Nature: A Theory of Environmental Ethics.
Ward, Stephen J. A., 2011, Ethics and the media: An introduction, Cambridge University Press.
Wallach W. and Allen, C., 2008, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press.
Wilbur Schramm, 1957, Responsibility in Mass Communication, New York:Harper & Brothers.
Yilun Wang and Michal Kosinski, 2018, "Deep neural networks are more accurate than humans at detecting sexual orientation from facial images", Journal of Personality and Social Psychology, No.2, pp. 246-257.
曹建峰,2016,《人工智能:機(jī)器歧視及應(yīng)對(duì)之策》,《信息安全與通信保密》,第12期,第15~19頁(yè)。
曹南燕,2000,《科學(xué)家和工程師的倫理責(zé)任》,《哲學(xué)研究》,第1期,第45~51頁(yè)。
方師師,2016,《算法機(jī)制背后的新聞價(jià)值觀——圍繞“Facebook 偏見(jiàn)門(mén)”事件的研究》,《新聞?dòng)浾摺罚?期,第39~50頁(yè)。
韓鴻、彭璟論,2017,《智媒時(shí)代社交媒體的社會(huì)責(zé)任——對(duì)2016美國(guó)大選中Facebook假新聞事件的反思》,《新聞界》,第5期,第89~93頁(yè)。
[美]卡爾·米切姆、朱勤、安延明,2007,《關(guān)于技術(shù)與倫理關(guān)系的多元透視》,《哲學(xué)研究》,第11期,第79~82頁(yè)。
劉則淵、王國(guó)豫,2007,《技術(shù)倫理與工程師的職業(yè)倫理》,《哲學(xué)研究》,第11期,第75~78頁(yè)。
[英]盧恰克·弗洛里迪,2018,《信息倫理學(xué)》,薛平譯,上海譯文出版社。
[美]阿拉斯戴爾·麥金泰爾,1996,《誰(shuí)之正義?何種合理性?》,萬(wàn)俊人、吳海針、王今一譯,北京:當(dāng)代中國(guó)出版社。
[美]邁克爾·舒德森、周巖,2017年,《新聞的真實(shí)面孔—— 如何在“后真相”時(shí)代尋找“真新聞”》,《新聞?dòng)浾摺罚?期,第75~77頁(yè)。
潘忠黨、陸曄,2017,《走向公共:新聞專業(yè)主義再出發(fā)》,《國(guó)際新聞界》,第10期,第91~124頁(yè)。
彭蘭,2017,《更好的新聞業(yè),還是更壞的新聞業(yè)?——人工智能時(shí)代傳媒業(yè)的新挑戰(zhàn)》,《中國(guó)出版》,第24期,第3~8頁(yè)。
史安斌、王沛楠,2017,《作為社會(huì)抗?fàn)幍募傩侣?mdash;—美國(guó)大選假新聞現(xiàn)象的闡釋路徑與生成機(jī)制》,《新聞?dòng)浾摺?,?期,第4~12頁(yè)。
[美]溫德?tīng)?middot;瓦拉赫、科林·艾倫,2017,《道德機(jī)器:如何讓機(jī)器人明辨是非》,北京大學(xué)出版社。
支庭榮、羅敏,2018,《“后真相”時(shí)代:話語(yǔ)的生成、傳播與反思——基于西方政治傳播的視角》,《新聞界》,第1期,第54~59頁(yè)。
責(zé) 編/馬冰瑩
Journalistic Ethics in the Age of Artificial Intelligence: Action and Governance
Zhao Yu
Abstract: In the context of artificial intelligence, the production tools and production methods of news communication have undergone tremendous changes. The journalistic ethical tradition of respecting objectiveness, fairness and minimal harm is facing challenges. The research scope extends from journalists, news organizations and news audiences to smart technologies and social platforms, their position and behavioral pattern in the landscape of news ethics have also changed. On the basis of the algorithmic ethics and big data ethics as well as the specific changes of the news communication mode in the intelligent age, this paper clarifies the action areas of specific moral actors from the individual ethical level, organizational ethics level and social ethics level respectively, which can demonstrate the ethical interaction structure between the various moral actors more clearly, and comprehensively present the relationship between the ethical structure of journalism and the different responsible subjects in the era of artificial intelligence.
Keywords: artificial intelligence, news ethics, moral actor, ethical governance
趙瑜,浙江大學(xué)傳媒與國(guó)際文化學(xué)院教授、博導(dǎo)。研究方向?yàn)閭鞑フ?、新媒體傳播和倫理治理。主要著作有《從數(shù)字電視到互聯(lián)網(wǎng)電視——媒介政策范式及其轉(zhuǎn)型》《中國(guó)藍(lán)——省級(jí)衛(wèi)視創(chuàng)新發(fā)展的浙江實(shí)踐》等。