人民網
人民網>>經濟·科技

應對人工智能技術濫用,合作才是未來

本報記者 楊逸夫
2024年03月17日08:24 | 來源:光明日報
小字號

原標題:應對人工智能技術濫用,合作才是未來

近年來,人工智能(AI)技術的更迭讓人目不暇接。語言模型領域取得重大突破的2023年剛剛過去,2024年,人們又迎來了視頻和物理世界虛擬生成方面的突破。然而,在人工智能技術被廣泛應用於科創、文化、教育、醫藥、交通等各行各業,甚至進入日常生活的當下,其被濫用的風險已開始引發擔憂。

“深度偽造”真假難辨

使用人工智能算法生成的高度逼真的虛假圖像、音頻和視頻等,被稱為“深度偽造”內容。自這一概念於2017年首次出現以來,借助該技術詐騙或操縱輿論的事件在全球愈加頻發。以美國為例,過去一年裡人工智能詐騙事件同比增幅超過了50%。

然而時至今日,人們仍未能有效解決該問題。這是因為,人工智能造假能力的進步速度遠遠超過了信息識偽技術的開發速度。如今,任何人都可以快速地、低成本地生成難辨真假的圖像、音頻甚至視頻,而且難以追蹤。與之相反,識偽技術則因在主題和軟件方面具有特異性,難以得到普及。此外,核查事實需要花費更多時間精力。據日本瑞穗研究所及技術公司的調查,70%的日本受訪者認為互聯網上的信息很難判斷真假,但隻有26%的受訪者表示在接觸可疑信息后會進行某種程度的驗証。

今年年初,世界經濟論壇發布《2024年全球風險報告》,將人工智能生成的錯誤信息和虛假信息列為“未來兩年全球十大風險”之首,擔心其會使本就兩極分化、沖突頻發的全球形勢進一步惡化。考慮到2024年是全球“大選年”,70多個國家或地區將舉行重要選舉,人們擔憂人工智能會被武器化,被用來誤導選民、誹謗候選人,甚至煽動暴力、仇恨和恐怖主義。

“2024年的美國大選將出現人工智能生成的虛假信息海嘯。”正如美國布魯金斯學會技術創新中心高級研究員達雷爾·韋斯特所言,美國大選剛剛迎來初選階段,就已經有人試圖利用“深度偽造”操控選民了。今年1月,美國民主黨初選在新罕布什爾州舉行,很多選民表示在初選前接到了“來自美國總統拜登的電話”,電話裡“拜登”建議選民不要參與初選,應該把選票留到11月大選時投給民主黨。這則電話實際上是拜登競爭對手迪安·菲利普斯的政治顧問克雷默安排的。他利用人工智能模擬了拜登的聲音,並撥給了最有可能受影響的選民。克雷默甚至直言:“隻需要500美元,任何人都可以再現我的行為。”

業內人士擔心,“深度偽造”內容的泛濫會讓公眾完全失去對自身感官的信任,真實信息也同樣會遭到更多質疑。比如2016年,特朗普曾極力宣稱與其有關的一份丑聞錄音是捏造的。若此事發生在當下,他的詭辯可能更具說服力。

類似的問題已在全球多國出現,然而技術的發展走在了各國的法律和行業規范之前,目前不得不更多依賴科技公司的“自我監管”來解決問題。在2月舉行的第60屆慕尼黑安全會議期間,全球多家科技企業簽署協議,承諾將共同努力打擊旨在干擾選舉的人工智能濫用行為,包括開發識偽工具,同時在生成圖像上添加“非現實內容”標簽及電子水印以明確其來源。部分企業還在考慮禁止政治候選人圖像的生成。然而,有媒體認為上述協議僅勾勒出一些最基本的原則,並沒有寫明企業履行承諾的具體措施及時間表,空洞的集體表態更像是一場公關活動。更何況,科技公司對其人工智能產品進行主觀調控,是否意味著會將公司的價值觀強加給用戶,這也是一個問題。

此外,電子水印技術尚存在不足。比如,“內容來源和真實性聯盟”提供的水印隻能被用於靜止圖像,而且“很容易被意外或故意刪除”。因此,從源頭控制虛假信息生成的難度、限制虛假信息在社交媒體的傳播以及培養公眾的批判性思維等,仍是各國解決“深度偽造”問題時不得不面對的難點。

“AI戰爭”的陰影

盡管公眾對人工智能興趣大增主要是由於生成式人工智能的發展,但多國軍方早已將注意力投向了人工智能技術在戰場上的應用,尤其是能夠進行深度學習的自主武器系統。美國戰略界把人工智能的發展與歷史上核武器的出現相類比,美知名科技企業家埃隆·馬斯克也認為,人工智能技術的擴散已讓各國企業可以“在自家后院制造核彈”。

在當前全球最受關注的兩場沖突中都能看到人工智能的應用。美《時代》周刊近日刊文將俄烏沖突稱為“第一場人工智能戰爭”,披露美國科技公司帕蘭蒂爾向烏克蘭提供人工智能軟件,通過分析衛星圖像、無人機畫面等情報提供打擊敵軍的最有效目標,並根據每次打擊進行學習和改進。報道稱,這些“人工智能軍火商”儼然把烏克蘭當作了其最新科技的最佳實驗場。

在巴以沖突中,以色列軍隊已將人工智能技術用於摧毀無人機、繪制隧道網絡地圖,以及推薦打擊目標。據報道,名為“福音”的人工智能系統讓以軍尋找攻擊目標的效率提升了幾百倍。不少媒體擔心這可能意味著系統不僅鎖定了軍事設施,也在轟炸平民住所,“人工智能可能正被用於決定加沙居民的生死”。

而早在2020年就首次實驗人工智能目標識別的美國,最近也廣泛利用該技術定位也門的火箭發射裝置、紅海的水面艦艇,以及伊拉克和敘利亞的打擊目標。

據美媒報道,美國軍方還不斷加強與OpenAI等領先企業的合作。2023年8月,生成式人工智能的浪潮掀起不久,美國防部數字和人工智能首席辦公室便迅速成立“生成式人工智能工作組”。今年1月,OpenAI悄無聲息地更新了其“使用政策”頁面,刪除了其中對“軍事和戰爭”應用的限制,將條款改為更模糊的“禁止利用產品開發或使用武器”。不久后,該公司承認正與五角大樓合作開展包括研發網絡安全工具在內的多個項目。近日,美國防部高級官員再次邀請美科技企業參加秘密會議,希望加速探索和實施人工智能的軍事應用。

相關專家認為,人類在幾十年間成功遏止核武器使用,靠的是各國間的戰略協調。目前全球缺乏人工智能軍事應用的國際治理框架,極易因技術失控導致沖突升級或引發軍備競賽,迫切需要盡快達成多邊共識。聯合國秘書長古特雷斯此前強調,聯合國必須在2026年前達成具有法律約束力的協議,禁止在自動化戰爭武器中使用人工智能。

國際協調合作不可或缺

人工智能同時具有正反兩方面的巨大潛能,需及時採取措施防范風險。2016年以來,各國陸續發布相關政策法規,但進展仍趕不上技術的進步。去年10月,拜登簽署美國首項人工智能監管行政令,為人工智能建立安全和隱私保護標准,但被指缺乏強制執行效能。歐盟方面,雖然歐洲議會於3月13日通過《人工智能法案》,但是法案中的相關條款將分階段實施,部分規則要到2025年才生效。日本執政黨自民黨直到最近才宣布計劃在年內提議政府引入生成式人工智能立法。

無論是生成式人工智能帶來的虛假信息問題,還是人工智能軍事應用的風險,其影響都是跨越國界的。因此,人工智能的監管和治理應通過國際合作來解決,各國應共同做好風險防范,攜手共建具有廣泛共識的人工智能治理框架和標准規范。

然而遺憾的是,美國不僅從一開始就把中國的人工智能發展計劃當作敵對行為,在布局人工智能軍事應用時把中國視為假想敵,而且為了維持技術優勢,長期阻礙中國技術進步。據報道,美政府不僅禁止美國企業對華出口處理能力最強的人工智能芯片,還要求美國雲計算公司披露在其平台上開發人工智能應用程序的外國客戶姓名,試圖借此阻斷中國企業訪問數據中心和服務器。

人工智能的發展治理攸關全人類命運,需要群策群力、協調應對。在人工智能領域搞“小院高牆”隻會削弱人類共同應對風險挑戰的能力。美國應切實尊重科技發展的客觀規律,尊重市場經濟和公平競爭原則,停止惡意阻撓他國技術發展,為加強人工智能領域的國際協調合作創造良好條件。

(責編:楊曦、陳鍵)
關注公眾號:人民網財經關注公眾號:人民網財經

分享讓更多人看到

返回頂部