智能向善——科技倫理管理勢在必行
大數據、人工智能、雲計算、區塊鏈等智能傳播技術正在深刻改變人類社會的生產生活方式。科技進步在給我們帶來了極大的便利的同時,我們也要對相伴而生的倫理風險和挑戰保持警惕,堅持把科技倫理治理工作放在智能傳播工作全局的重要位置。科技倫理原則是發展智能傳播技術需要遵循的總體性、根本性的倫理要求,因此多方參與、協同共治,引導智能向善,對科技倫理的科學化規范化管理勢在必行。
一、 智能技術高效提升傳播質量與效率
1.智能化推送滿足用戶需求,提供個性化定制內容
智能時代,平台通過分析用戶的歷史行為、興趣和偏好,以及實時反饋,來個性化地提供信息和內容。平台精細化研究用戶畫像,依賴算法的精准投送,不僅滿足了用戶需求,還提高了用戶粘性和滿意度,其次也提高了相關內容和產品的曝光率和點擊率。這給平台和用戶雙方都帶來了便利。
2.大眾傳播向窄播發展,精准的渠道定位輔助傳媒產業升級
報紙、電視、廣播等傳統大眾傳播方式是面向廣泛受眾的。而智能時代,大眾傳播依托數字科技開始向窄播發展,自媒體和傳媒公司可以更精確地定位和吸引特定受眾。數字技術為社交媒體、播客等新媒體渠道注入新活力,渠道變革的關鍵是精准的定位,傳媒產業通過針對性的內容戰略,提供與受眾需求更加吻合的內容,同時也制定渠道策略,不僅有利於內容的定向分發,也有助於多方合作,內容商、自媒體、傳媒公司、廣告商、電信運營商等都能共贏,提高了渠道傳播的效果,輔助了傳媒產業的升級。
3.生成式人工智能為互聯網生態帶來新機遇,提升內容生產效率和質量
生成式人工智能技術已經在互聯網生態系統中引發了顛覆性的變化。首先,生成式人工智能能夠大大降低內容生產的人力成本,生成式人工智能可以根據指令執行文本寫作,行文邏輯優化,提煉要點等任務,極大提高了新聞生產效率。其次,生成式人工智能還可以自動執行拼寫檢查、語法糾正和事實核查,從而減少虛假信息的傳播。此外,生成式人工智能也通過實時翻譯,文件解讀等功能促進了國際傳播與交流。總的來說,生成式人工智能實現了降本增效,為互聯網生態帶來了新機遇。
二、智能傳播需要警惕的問題
1.算法歧視固化信息繭房
大數據算法根據用戶的瀏覽記錄、標簽信息等數據內容對其進行分類並不斷精准投放其感興趣的內容,這種“投其所好”的方式是一種算法歧視,通過操縱用戶的接觸的信息,形成並不斷固化信息繭房,侵害用戶信息選擇的權利。“信息繭房”固化用戶價值觀和加大信息不對等的同時,也加大了社群鴻溝,使網絡上公共事件的討論愈發極端,非黑即白的“二極管”思維越來越普遍。若不對“算法歧視”加以管理,將導致社會進一步割裂。
2.智能傳播帶來隱私風險
智能技術背后的隱私問題值得我們重視。首先各大平台算法涉及用戶個人信息,若隱私安全不加以保障,隱私信息落入不法分子受傷將對用戶利益造成損害。其次,愈發成熟的深度偽造技術可以真實還原人類外貌、聲音等特征,若被蓄意用於虛假廣告、色情等違法行為,以假亂真,將對他人肖像權、名譽權和隱私安全等造成損害,甚至造成社會混亂。此外,人工智能內容生產正在越來越多地被用於公開出版與傳播,由此產生的著作權侵犯與爭議也愈發增多。
3.大數據裹挾消費對用戶權利造成威脅
在大數據時代,每個人的行為都成為數據,這數據被平台用於操縱消費者行為。在平台看來,消費者的每一次行動都增加了其“數據體”的豐富性。大數據時代的精准推薦可能限制消費者的選擇,引導他們的消費行為,並削弱他們的主體性。首先,大數據推送商品限制了消費者的選擇范圍,而海量信息導致消費決策更加復雜,使得消費者容易失去決策的主動性。其次,大數據通過追蹤和分析消費者的需求,誘導消費者過度消費,導致透支和債務問題。此外,大數據精准分析用戶財力特征,針對性調節商品定價,大數據殺熟頻頻發生。消費者在這個由算法推薦的世界中逐漸變得麻木和失控。這使得消費者很難做出真正符合其需求和價值觀的決策。這一問題需要引起重視,加大力度維護用戶權利。
4.網絡輿論的極化表達與負面輿論的數據驅動,帶來輿論場的亂象叢生
數據驅動和人工智能內容生產可能被用於操縱網絡輿論,危害國家社會安全。算法驅動下,各種力量在輿論場的角力,可以通過制造信息鴻溝,調動負面因素和極化偏見來匯聚意見,帶來極大危害。而作為新型“網絡水軍”的社交機器人也已經開始影響媒體與公眾議程,不僅可以對已有信息進行點贊、轉發,還可自動生產、發布內容與評論,制造與引導網絡輿論風向。這些新技術,在近年來的熱點事件甚至國際爭斗中,帶來的風險正在不斷增強,並使網絡輿論治理的復雜性與困難度大大增加,我們需要警惕“被算計的輿論”。
三、智能向善,對科技倫理的科學化規范化管理勢在必行
1. 成立科技倫理審查委員會
科技倫理審查是防范智能傳播風險的重要機制,是有力保障智能傳播發展的基礎性制度,成立倫理審查委員會勢在必行。面對人工智能算法等智能技術涉及的倫理風險,科技倫理審查委員會在用戶滿足知情權和獲取便利的同時,應該凝聚共識,承擔起智能向善的職責。審查工作應該包括到不限於用戶的隱私權保護,保障數據合法性,避免大數據侵權行為的發生,審查模型數據中的價值觀和偏見等等,謹防數據濫用和不法分子利用智能技術挑起的危機。
2. 在引導和善用智能技術方面,智能向善理念需要凝聚共識
智能技術的倫理規制是一項系統工程,需要多方合力共治。平台是技術的提供者,同時也是引導智能向善的第一責任主體。媒介信息不僅具有產品屬性,更具有服務於公眾的社會公共價值。這就要求平台媒體在市場化的經營邏輯之外更需要切實肩負起公共性的社會責任。在行業自律之外,政府部門需從外部加強對平台媒體和算法的監管與問責,加強對生產和傳播路徑的把控,及時解決權利與義務、自由與責任、經濟效益與社會效益之間的各種矛盾,形成以網信部門為主體,會同電信、公安、市場監管等有關部門的常態化監管機制。多方協同,凝聚共識,引導智能向善義不容辭。
3. 用戶治理不容忽視
用戶作為智能傳播的重要一環,也應承擔起相應的責任。規范網絡用戶在人工智能使用方面的行為,加強他們的智能媒介素養,以及優化用戶維權機制,有利於維護新媒介生態下的算法正義。當前,網絡用戶在使用人工智能技術時,普遍存在著缺乏明確通用規范的問題。一旦侵權行為發生,很多用戶並不了解如何維護自己的權益,也沒有適當的機制能夠讓一般用戶參與到人工智能內容的管理中。因此,當前和未來網絡空間治理的重要任務之一是培養和提升公眾的媒介素養。我們需要在傳統媒介素養和網絡新媒體素養的基礎上,構建適應於智能傳播環境的媒介素養標准和實施方法。此外,網絡空間治理的用戶層面不僅包括對用戶的人工智能使用行為的規范,還包括使用人工智能技術來提升用戶的媒介素養和網絡行為。例如,可以利用人工智能技術在用戶編輯或發布內容之前提供提示,以識別可能涉及的倫理法規、虛假信息、不適當內容、負面影響和情感激烈等問題。
“被算計的輿論”和“被計算的傳播”是智能傳播繞不開的議題。技術本身沒有善惡之分,但也不可能自動“向善”,因此推動智能傳播的同時,也要加強潛在風險研判和防范,強化對大數據算法、生成式人工智能等新技術的約束和管理,成立科技審查倫理委員會,多方協同共治智能風險,促進智能傳播更加健康穩定、可控有序的發展。(作者系暨南大學黨委書記)
關注公眾號:人民網財經
分享讓更多人看到
- 評論
- 關注





























微信掃一掃


第一時間為您推送權威資訊
報道全球 傳播中國
關注人民網,傳播正能量