人民網
人民網>>經濟·科技

系好“安全帶”,生成式人工智能才會更好發展

人民網記者 趙竹青
2023年04月13日13:52 | 來源:人民網
小字號

人工智能通用大模型橫空出世,全世界看到了AIGC(人工智能生成內容)的強大。與此同時,AIGC的可信度、隱私保護、倫理等問題亦引發空前爭議。

我國有關部門快速反應。4月11日,國家互聯網信息辦公室發布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),提出二十一條舉措。業界認為,這是國內首次明確針對生成式人工智能服務征求管理意見,將有利於推動AIGC產業健康穩定發展。

AIGC負面影響顯現,行業亟待規范

當前,人工智能越來越多地被應用於文本、圖像、視頻等生成工作,成為繼專業生成內容(PGC)、用戶生成內容(UGC)后的新型內容生產方式(AIGC)。

然而從AIGC走進公眾視線的那一刻起,種種爭議就一直圍繞著它。

版權之爭首當其沖。2023年初,商業圖庫Getty Image多次指控AI公司Stability AI未經授權復制和使用其圖庫中逾1200萬幅受版權保護的圖片,用以訓練其AI圖像生成模型。《華爾街日報》也表示美國新聞集團正准備向OpenAI、微軟和谷歌等公司提起訴訟,要求AI工具在訓練中對使用其內容的部分進行費用補償。

數據安全、隱私安全等問題也隨之而來。據韓國媒體報道,三星內部已先后發生三起誤用濫用ChatGPT案例,包括兩起“設備信息泄露”和一起“會議內容泄露”,涉及半導體設備測量資料、產品良率等機密內容。而摩根大通、軟銀等企業已經開始限制員工在工作場合使用ChatGPT。

更有人利用AIGC強大的內容生成能力偽造信息,多次引發熱議。比如近日廣州一女子在地鐵上的照片被他人使用AI技術“一鍵脫衣”,虛假圖片在網絡廣泛傳播﹔某男網紅使用“AI換臉”技術,替換掉電視劇中的男主角頭像,制作自己與女明星親吻的畫面﹔今年2月,有人用ChatGPT寫了一條“杭州市政府將取消機動車尾號限行政策”的假新聞,讓不少人信以為真……

多國已對ChatGPT展開調查。4月初,意大利個人數據保護局宣布禁止使用聊天機器人ChatGPT,限制其開發公司OpenAI處理意大利用戶信息,並開始立案調查。加拿大聯邦隱私監管機構也宣布對OpenAI展開調查,因其涉嫌“未經同意收集、使用和披露個人信息”。德國聯邦數據保護專員也表示,考慮數據安全,不排除封禁ChatGPT。

AI發展正在加速,AI治理也需要提速。多位業內專家對人民網記者表示,我國此次出台《管理辦法》非常及時,如此詳細的管理規定在全球范圍內也很鮮見。

中國信息經濟學會副理事長、廣州大學網絡空間安全學院教授齊佳音說,《管理辦法》的發布距離OpenAI發布ChatGPT全球公測僅僅過去四個月,有可能成為國際上第一部規制生成式人工智能的規章制度,體現了我國在人工智能治理領域的敏捷反應能力,對於規范和促進AIGC的發展無疑具有重要的引領作用。它將為全球的AIGC監管提供模版,有助於加快人工智能治理制度建設,推動AIGC產業規范有序發展。

強調安全,是為了更好地促進發展

業內專家認為,《管理辦法》強調權益保護,主要防范濫用行為。一方面是防范平台濫用人工智能技術手段侵害用戶隱私,另一方面是防范用戶濫用生成式人工智能侵害他人權益。

人民網董事長、總裁,傳播內容認知全國重點實驗室主任葉蓁蓁認為,主管部門出台《管理辦法》並非要限制人工智能發展,而是通過規章制度來“系好安全帶”,加快發展、更好發展。他強調:“在統籌發展與安全的問題上,不發展才是最不安全。”

我國高度重視人工智能技術發展,將其視為一項驅動科技創新、產業升級和生產力提升的戰略性新興技術。近年來,有關部門陸續發布《新一代人工智能發展規劃》《促進新一代人工智能產業發展三年行動計劃》《關於加快場景創新 以人工智能高水平應用促進經濟高質量發展的指導意見》《關於支持建設新一代人工智能示范應用場景的通知》等多個政策文件,為人工智能核心技術攻關、產品落地應用以及探索發展新模式新路徑提供了重要指導。

在今年的全國兩會上,科技部相關負責人亦專門強調,“將把人工智能作為戰略性新興產業和新增長引擎”,在推動人工智能基礎研究、應用推廣、開放合作等方面繼續給予大力支持,並同時推動建立人工智能安全可控的治理體系。

齊佳音指出,此次公布的《管理辦法》為AIGC的研發和應用劃出了底線和紅線,即提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗。同時,明確了AIGC的“提供者”對研發和應用負有責任,即利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人需要對包括產品應用、安全評估、算法合法性、數據合法性等承擔責任。此外,《管理辦法》還為AIGC的研發和應用提供了糾偏機制,包括持續優化糾偏、AIGC標識提示、可審查機制、監管引導機制、終止服務機制和懲戒處罰機制。

“《管理辦法》為AIGC的研發和應用第一次立了規矩,使得AIGC的研發和應用有了規制框架,對於規范和引導這一領域的發展具有十分重要的積極作用。”齊佳音說。

專家呼吁進一步重視潛在風險

記者注意到,此次《管理辦法》也對一些可能出現的衍生問題提出防范舉措,如要求利用生成式人工智能生成的內容“應當體現社會主義核心價值觀”、防止各類歧視、“不得利用算法、數據、平台等優勢實施不公平競爭”“採取措施防止生成虛假信息”“防止傷害他人身心健康”等。

“這一點非常值得關注。”齊佳音解釋說,以ChatGPT為例,其具有強大的類人化自學習能力和交互式文字處理能力,自動化語言生成帶有強烈的類人化語言風格,這讓ChatGPT有可能擺脫單一的技術身份而擁有了類人化社會角色,成為深度參與和介入社會關系的“代理”。如果不加以限制,AIGC帶來的“人-機”社會互動將有可能代替真實的“人-人”社會交往,成為干擾人類真實社會關系的核心要素,這將帶來技術的異化和人的異化,是必須要加以防范的。

葉蓁蓁指出,AI平台是有立場的,AI生成的內容是有導向的,所謂“技術中性”是不存在的。因此,無論是喂養人工智能的語料數據,還是模型本身的算法,都必須高度關注其政治方向、輿論導向和價值取向問題。不能放任AI脫離人類視野,不能無視AIGC“生成即傳播”特性的潛在風險,要積極探索AI應用和治理之道。

在AIGC價值觀培養方面,清華大學教授沈陽建議:應該有更多“人的介入”。其中關鍵是要為大語言模型提供更多的解釋性,這對於修正AI的價值觀偏見以及知識成見非常重要。

據了解,目前人民日報社主管、依托人民網建設的傳播內容認知全國重點實驗室已初步建立了AI意識形態風險評測體系。該體系就採用了人機協作的方式進行測評。

為從源頭上防止“技術脫軌”,在制度建設方面,4月4日,科技部在《科技倫理審查辦法(試行)》征求意見公告中提出,從事生命科學、醫學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。

沈陽表示,每一個AIGC平台都應設有倫理審查委員會,以確保其在發生大規模涌現時,符合法律道德和倫理規則。“我們現在對於訓練師、心理師、倫理師、提示師的重視程度還不夠,需要進一步提升。”

齊佳音指出,隨著技術的快速發展,相關規章制需要持續優化,建議后續進一步推出AIGC安全評估規范和管理流程規范。

“應健全研發、審核、應用與安全等多維標准規范體系,完善AIGC技術創新生態。”傳播內容認知全國重點實驗室科技發展部主任楊鬆建議,應加快構建國家頂層規劃、龍頭企業牽頭、高校科研機構共同支撐的創新鏈產業鏈融合體系,完善數據共享機制,大力推動數據資源匯聚。

(責編:趙竹青、章斐然)
關注公眾號:人民網財經關注公眾號:人民網財經

分享讓更多人看到

返回頂部