【摘要】目前,人工智能技術(shù)已經(jīng)滲透到了新聞傳播活動的各個方面,同時也存在著一定的隱患風險,一旦觸及道德底線,就會引發(fā)一些傳播倫理失范問題。為了解決這些問題,需要通過智能技術(shù)與人的有機結(jié)合,實現(xiàn)新聞生產(chǎn)效率的最大化,同時應(yīng)提升新聞機構(gòu)的責任意識,加大公眾監(jiān)督力度;加強技術(shù)革新,從源頭加強信息過濾;健全法律法規(guī),促進人工智能良性發(fā)展。
【關(guān)鍵詞】人工智能 新聞傳播 倫理失范
【中圖分類號】G23 【文獻標識碼】A
目前,媒體朝著“技術(shù)+內(nèi)容”的方向發(fā)展,人工智能技術(shù)已經(jīng)滲透到了新聞傳播活動的各個方面,能夠?qū)π畔?shù)據(jù)進行采集、加工、自動寫稿、編輯分發(fā),如:新華社機器新聞生產(chǎn)系統(tǒng)“快筆小新”、騰訊財經(jīng)的“Dream Writer”等寫稿機器人。但是在傳媒領(lǐng)域中,由于人工智能技術(shù)不夠完善、觸及傳播倫理底線、算法設(shè)計不透明、法律體系不健全、市場監(jiān)管不到位等因素的影響,人工智能技術(shù)引發(fā)了一些傳播倫理失范問題。如何解決人工智能技術(shù)所引發(fā)的倫理失范成了傳媒領(lǐng)域面臨的重要問題。
人工智能技術(shù)引發(fā)的新聞傳播倫理失范現(xiàn)象
運用人工智能技術(shù)進行新聞傳播,容易造成內(nèi)容失真,違背新聞報道基本要求。由于人工智能技術(shù)在新聞傳播領(lǐng)域中的應(yīng)用還不成熟,技術(shù)的客觀性可能使新聞缺乏人文關(guān)懷,導致倫理失范被放大。并且基于廣泛數(shù)據(jù)挖掘的人工智能技術(shù)還會造成媒體暴力、新聞失實等現(xiàn)象,增加公民隱私權(quán)、著作權(quán)受侵犯的風險,從而形成了傳播的二次失范和次生失范。寫稿機器人自動寫稿可能會背離新聞的全面性,造成新聞失實,缺乏現(xiàn)場的感官體驗。此外,寫稿機器人過分注重刊播效果,不加人工干預,容易使真正重要的新聞被邊緣化,容易導致新聞失衡,只單純地迎合受眾,使大眾媒體的公共服務(wù)職能受到嚴重影響,損害了傳統(tǒng)的新聞價值標準。
運用人工智能技術(shù)進行新聞傳播,缺失輿論監(jiān)督功能。新聞媒體具有輿論監(jiān)督的重要作用,而與人類記者相比,寫稿機器人只是機械地進行寫作,沒有大局意識,不具備輿論監(jiān)督的能力。機器人無法對報道的時間、內(nèi)容和效果等進行判斷,也不擅長發(fā)表具有引領(lǐng)作用的深刻見解,從而削弱了新聞媒體的監(jiān)督功能,降低了公眾對媒體的信任度。同時,隨著人工智能技術(shù)在新聞傳播領(lǐng)域的滲透,無論是智能熱點搜集、新聞寫作還是智能推薦,信息采集的范圍將不斷擴展,方式將更加隱蔽。這極有可能導致源數(shù)據(jù)被披露,從而導致公民的著作權(quán)無法受到保護。
運用人工智能技術(shù)進行新聞傳播,容易導致新聞同質(zhì)化現(xiàn)象,傳播效果不佳。人工智能時代,智能分發(fā)平臺是基于受眾的個人畫像和閱讀行為,將內(nèi)容推送的權(quán)力由人類編輯轉(zhuǎn)化為智能算法,以不同的形式,根據(jù)推測出的受眾閱讀偏好,將受眾認同和想了解的信息進行推送。智能新聞生產(chǎn)、分發(fā)模式是以挖掘用戶喜好為導向,給受眾帶來了許多同類信息,新聞同質(zhì)化現(xiàn)象嚴重,言論單一,導致受眾的知識素養(yǎng)和新聞品位下降。容易造成受眾沉浸在智能分發(fā)平臺為他們編制的“信息繭房”中,使受眾的信息接觸面越來越窄。一旦智能新聞分發(fā)平臺陷入“雷同之海”,長期控制新聞生產(chǎn)和分發(fā)模式,就會違背媒體需要客觀中立、傳遞不同聲音的理念,導致公眾對社會公共事件的忽視。
通過智能技術(shù)與人的有機結(jié)合,實現(xiàn)新聞生產(chǎn)效率的最大化;提升新聞機構(gòu)的責任意識,加大公眾監(jiān)督力度
在簡單的消息寫作領(lǐng)域,人工智能技術(shù)能夠充分發(fā)揮其應(yīng)有的作用,會部分取代人類記者。一方面,人工智能技術(shù)的個性化推薦能夠充分實現(xiàn)新聞生產(chǎn)效率的最大化,提升受眾獲取信息的效率;另一方面,寫稿機器人能夠?qū)⑿侣劰ぷ髡邚膯握{(diào)乏味的基礎(chǔ)工作中解放出來,能夠有效緩解記者、編輯的工作壓力,賦予他們更多的時間和精力去挖掘有深度、有反思性的的報道。但是在新聞傳播中,機器人只是一種輔助工具,還需要新聞工作者來彌補其存在的諸多弊端。如:新聞工作者擅長對深度和邏輯的宏觀把控,能夠彌補人工智能不能理解新聞事件背后的信息和因果關(guān)系的缺陷;新聞工作者所具有的人文關(guān)懷也能夠彌補人工智能不能產(chǎn)生“有溫度”新聞的缺陷,能夠很好地把握新聞傳播倫理的界限。因此,面對信息爆炸和人工智能快速發(fā)展的趨勢,通過記者的深入調(diào)查、深度思考,利用智能算法,分析數(shù)據(jù)、發(fā)現(xiàn)熱點事件和重大事件來完善新聞報道,并由智能推薦將信息有計劃性地送達用戶手中,將人工智能技術(shù)與新聞工作者有機的結(jié)合在一起。同時,新聞記者要充分發(fā)揮人的主體地位,增強對人工智能技術(shù)的運用與把控,提升深度分析和深入調(diào)查的能力,促使未來新聞業(yè)向更高效、智能的方向發(fā)展,實現(xiàn)“人機共生”。
新聞機構(gòu)掌握著眾多的人工智能成果、技術(shù)和手段,為了維護社會的和諧發(fā)展,在使用人工智能的過程中,傳媒機構(gòu)必須要承擔起相應(yīng)的責任,提升責任意識,增強人工智能技術(shù)的透明度。對于公眾來說,智能算法可能難以理解,因此,為了消除公眾對人工智能技術(shù)的過分信任或完全抵制,新聞機構(gòu)有必要明確告知受眾機器人運行中可能帶有的偏見和所犯的錯誤,讓智能新聞以真實可感的形象走到大眾中來。人類是智能新聞的“元作者”,人類設(shè)計和編寫了智能算法,因此,對于源數(shù)據(jù)的版權(quán)和準確性來說,人要負起主要的責任,除了要增強智能新聞的透明度,還要明確機器人犯了錯由誰來負責,明確智能新聞的問責機制。為了避免人工智能技術(shù)所導致的傳播倫理失范問題,要做到人機責任捆綁,為每一則智能新聞分配責任人,在機器人客觀公正的基礎(chǔ)上,由責任人專業(yè)把控,做好新聞的審核和檢驗。
加強技術(shù)革新,從源頭加強信息過濾;健全法律法規(guī),促進人工智能良性發(fā)展
目前,在傳播領(lǐng)域中,還需要通過加強技術(shù)革新,用技術(shù)優(yōu)化來完善觸及傳播倫理的部分技術(shù)缺陷,從而解決人工智能技術(shù)所導致的傳播倫理失范問題。首先,要使技術(shù)應(yīng)用與內(nèi)容選擇保持平衡關(guān)系,規(guī)范技術(shù)的適用范圍和使用標準;其次,要從源頭上對新聞進行過濾,通過嚴密的算法,以技術(shù)發(fā)展加強機器人對新聞數(shù)據(jù)質(zhì)量的判斷。并且為了真正做到“有方法可依,有數(shù)據(jù)可查”,由機器人生產(chǎn)的新聞應(yīng)明確標注數(shù)據(jù)來源、內(nèi)容的生成方式,從源頭上避免虛假新聞的產(chǎn)生;另外,為了保證源數(shù)據(jù)的真實可用,新聞從業(yè)者應(yīng)充當“把關(guān)人”的角色,在技術(shù)未完全成熟前,對數(shù)據(jù)管理和程序進行驗證。同時,要提升智能算法的運算程序,減輕智能分發(fā)所造成的“信息繭房”問題。并且為了避免用戶陷入“信息孤島”的困境,還要結(jié)合社會重大事件、用戶圈層,基于受眾畫像、行為習慣描繪受眾顯性需求,通過技術(shù)手段,全方位改善個性化推送的內(nèi)容和機制。
目前,在新聞傳播領(lǐng)域中,人工智能技術(shù)相關(guān)的法律法規(guī)還不夠健全,為了最大限度地防止人工智能對人類社會產(chǎn)生的威脅,需要建立強有力的法律法規(guī)和管理制度,更好實現(xiàn)人工智能技術(shù)對人類社會的價值。首先,要使人工智能技術(shù)和產(chǎn)品的各方面做到有法可依,完善對數(shù)據(jù)使用中侵犯隱私權(quán)的處罰,明確可抓取數(shù)據(jù)的范圍和邊界,從立法層面加強對公眾隱私的保護,促進人工智能良性發(fā)展。其次,在人工智能監(jiān)督過程中,有關(guān)部門擔負著主導職能,因此,為了全方位監(jiān)督人工智能技術(shù),應(yīng)該明確人工智能的發(fā)展方向和發(fā)展原則等。最后,公眾是智能新聞的受眾和潛在侵權(quán)對象,在社會監(jiān)督中,公眾的積極監(jiān)督和舉報具有制約的作用,能夠?qū)崿F(xiàn)法規(guī)政策和監(jiān)管力量雙管齊下的目的。
(作者為新鄉(xiāng)學院新聞傳播學院副教授)
【參考文獻】
①王卉、張瑞靜:《人工智能技術(shù)在數(shù)字出版中的應(yīng)用現(xiàn)狀與發(fā)展趨勢》,《出版發(fā)行研究》,2018年第2期。
責編/谷漩 美編/于珊