“賽博復刻”不可逾越法律紅線
222
訂閱已訂閱已收藏
收藏點擊播報本文,約
近日,一款名為“張雪峰.skill”的AI技能包上線,它通過收集張雪峰生前著作、採訪及語錄,提煉並復刻其思維模型,為用戶提供高考志願填報、考研規劃等咨詢服務,被不少網友稱為“賽博復刻”。
同期,“同事.skill”也走紅網絡,只要導入特定個人的聊天記錄、工作文檔、郵件或截圖等資料,即可將其工作經驗“封裝”為AI模型,生成代勞瑣事的“賽博同事”。山東某公司運用“同事.skill”,將離職員工數據訓練出“AI分身”繼續上班引發熱議。
這一嘗試展現了AI在保存個體知識體系、延續專業服務上的巨大潛力。然而法律界人士指出,姓名、肖像、名譽及著作相關權益受法律保護,如未征得同意,使用其公開內容訓練AI,即便非商用,也涉嫌侵犯人格權與著作權,更觸及倫理與情感的復雜邊界。
從逝者到生者,從名人到同事,“AI分身”背后,法律紅線不可逾越。首先,無論是挖掘逝者生前數據,還是抓取同事工作記錄,未經許可處理敏感個人信息,違反個人信息保護法的知情同意原則。其次,聊天記錄和工作文檔往往包含核心信息甚至商業秘密,擅自打包進AI模型,極易引發知識產權與保密協議糾紛。
技術的迭代,使得對個體的“知識蒸餾”具象化、低門檻化,但可行不等於可為。面對這一現象,各方必須守住底線。
對監管而言,步伐須更快,規則待細化。雖然民法典、個人信息保護法等提供了基本遵循,但關於工作中“隱性知識”產權歸屬、AI復刻人格的法律定性等問題,尚存諸多模糊地帶。這正是技術發展帶來的新命題。
對用人企業而言,要堅持科技向善,不能以“技術中立”或“提升效率”為由逃避主體責任。要嚴格界定數據收集范圍,開發涉及個人的AI產品前,必須履行嚴格的告知與授權程序。
對個人而言,亟需提升數字素養,捍衛自身權益。我們應意識到,在網上發的每一個帖子、每一個視頻都可能成為訓練“數字分身”的原料。面對各類平台、企業的數據授權請求,務必審慎對待,仔細閱讀隱私條款,拒絕不必要的個人信息授權。同時,遭遇侵權時,更要勇於拿起法律武器。
技術是一面鏡子,“張雪峰.skill”“同事.skill”等折射出的,是我們在技術狂飆中的價值選擇。數字時代,人的主體性不容算法隨意解構,更不容肆意復刻。
關注公眾號:人民網財經
分享讓更多人看到
- 評論
- 關注































微信掃一掃


第一時間為您推送權威資訊
報道全球 傳播中國
關注人民網,傳播正能量