人民網
人民網>>經濟·科技

人工智能產業先過“安全可控”關

李芃達
2021年07月06日08:09 | 來源:經濟日報
小字號
原標題:人工智能產業先過“安全可控”關

  人工智能正加速各行各業的智能化轉型,但數據隱私、算法偏見、技術濫用等安全問題也給人工智能的治理與產業發展帶來嚴峻挑戰。

  未來人工智能如何兼顧創新發展與安全可控?在前不久舉辦的北京智源大會AI安全與產業治理論壇上,中國科學院院士、清華大學人工智能研究院院長張鈸表示,未來人工智能產業發展在擴大應用場景的同時,必須實現數據、算法與應用層的安全可控。

  “人工智能的安全可控問題要從技術層面來解決。”在具體實現路徑上,張鈸提出了發展“第三代人工智能”,即融合第一代知識驅動和第二代數據驅動的人工智能,利用數據、知識、算法和算力4個要素,發展安全、可信、可靠和可擴展的AI技術。

  如何定義人工智能“安全可控”?北京瑞萊智慧科技有限公司CEO田天認為,“安全”是指打造數據安全與算法安全兩大核心能力,解決數據強依賴帶來的隱私泄露等隱患,同時提升算法的可靠性,從而保証系統在網絡過載或有意攻擊情況下,依然穩定運行不崩潰﹔“可控”既指應用層面的合規可控,更指核心技術的自主可控,以自主可控為根基,通過理論創新、技術突破形成核心競爭力。安全可控是發展第三代人工智能的核心基准,也是加快人工智能高質量發展的有力支撐。

  數據的不安全和算法的不安全是制約當前人工智能產業發展的主要因素,也是發展安全可控人工智能需要解決的核心問題。在中國信息通信研究院安全所信息安全研究部主任魏薇看來,人工智能與數據產業互促發展的同時,安全問題也相互影響。一方面,人工智能對數據強依賴的發展特性導致其面臨的自身數據安全風險、應用導致的數據安全風險以及應用加劇的數據治理挑戰日益凸顯﹔另一方面,人工智能也為數據治理工作提供自動化、智能化、高效化、精准化的智慧支撐。

  相較數據安全,算法安全問題初露端倪。阿裡安全資深算法專家何源介紹,雖然人工智能技術已經在淨化網絡環境、知識產權保護、生物識別、線下安防等安全工作中發揮著越來越大的助力作用,讓安全更智能,但其本身也面臨著魯棒性不夠、可解釋性差、技術濫用等安全風險。比如,算法漏洞的存在可以針對圖像檢索系統開展攻擊,導致非原創圖片逃逸檢測,對網站安全與商家權益造成威脅。

  發展安全可控的人工智能是一項系統性的工作,需要從行業標准、法律規范、技術發展等多個維度打造與之配套的“基礎設施”,其中技術基礎設施的打造仍將發揮基礎性作用。比如,基於安全多方計算、聯邦學習、匿蹤查詢等技術打造數據安全共享平台解決數據隱私難題,讓數據安全共享流通﹔打造人工智能系統防火牆,為人臉識別、目標檢測、圖像分類等系統提供安全檢測與防御加固,從根本上提升系統安全性。

  在新基建浪潮驅動下,人工智能產業即將迎來與傳統產業深度融合的機遇期。田天表示,在安全可控的核心支撐下,人工智能能夠實現從“單點自動化”到“深度智能化”的價值提升。例如,在金融領域,人工智能的創新融合正為金融行業打造出一個兼具決策分析與感官感知的“智慧大腦”。而在安全可控的支撐下,“智慧大腦”能夠拓展全新能力邊界,形成更好的“決策左腦”與更加安全可靠的“感知右腦”。

  在安全可控的助力下,“深度智能”時代正加速到來,人工智能在各行業領域的應用廣度和深度將不斷得到拓展。“第三代人工智能通過釋放‘數據、知識、算法、算力’的全新維度,為實現安全可控的新一代人工智能提供可能,讓人工智能走出‘淺層智能’的舒適區,重塑產業價值。”田天說。

(責編:趙超、陳鍵)

分享讓更多人看到

返回頂部