人民網
人民網>>經濟·科技

AI算法能“偷聽”:突破倫理的“灰犀牛”並不遠

2019年04月08日08:30 | 來源:新京報
小字號
原標題:AI算法能“偷聽”:突破倫理的“灰犀牛”並不遠

  AI算法能“偷聽”:突破倫理的“灰犀牛”並不遠

  人機未來

  在人工智能和大數據時代,公民個人信息權益的保護,相較於技術發展更加脆弱,必須盡快找到可行的應對之道。

  人工智能算法能“偷聽”用戶信息

  人工智能(AI)算法是否可以“偷聽”你的信息?對於這樣的疑問,許多人恐怕還半信半疑,難以給出確定答案。但劍橋大學的一項最新研究卻表明:這是很有可能的。

  “偷聽”的原理是:當人們輕敲手機和平板電腦的屏幕時會產生聲波。這些聲波通過設備的內置麥克風收集、恢復,從而就可“聽到”敲擊屏幕的聲音。結合人工智能算法,聽到的聲音與鍵盤位置關聯,就可實現“偷聽”用戶信息。

  開展這項研究的劍橋大學計算機實驗室用其自己開發的算法模型進行了實驗,結果表明,對於四位數密碼而言,該模型在10次嘗試后可以准確恢復54%的密碼﹔20次嘗試后可以恢復150個密碼中的91個,識別准確率為61%。

  該項研究的論文於3月26日發表,題目就叫《聽到你的觸摸:智能手機上的新聲學側通道》。

  對於已經基本離不開智能手機的我們來說,這項研究結果無疑是當頭一棒。就在前不久,某些手機APP“偷聽”用戶信息的消息,在很短時間內刷爆朋友圈,引發了巨大質疑。相關平台迅速出面辟謠,而許多針對性的測試也一時拿不出確鑿証據。

  坦率地說,我們不相信相關平台就是在有意地“偷聽”,而更傾向於認為,這是大數據在自動生成“用戶畫像”。只是畫像的精准度,也著實讓人害怕。

  扎緊技術倫理和法律籬笆

  但從另一個角度來看,懷疑“偷聽”不啻為一聲響亮的警鐘,它再次對我們發出警示:在人工智能和大數據時代,公民個人信息權益的保護,相較於技術發展更加脆弱,必須盡快找到可行的應對之道。

  同時,對以“進步”為名的技術發展,我們也必須保持高度警惕和懷疑,並時刻從人類尊嚴和技術倫理的高度詳加審視。這是必要的審慎,絕不是螳臂當車的保守,因為墨菲定律早就說得非常清楚——如果事情有變壞的可能,不管這種可能性有多小,它總會發生,並造成最大可能的破壞。

  “偷聽”有可能發生嗎?劍橋大學的研究已經表明:肯定會的。雖然囿於技術的局限,目前尚無法偷聽得那樣精確。但假以時日,人工智能算法裝備的智能手機等設備,肯定會把人“偷”得赤條條。而以技術發展在當今的迅猛之勢,這個時日其實並不多麼遙遠。

  我們已清楚地看到“灰犀牛”就在那裡,它正在向我們沖來。可是出於無數的利益計算和猶疑,人類就是找不到切實的預防、應對之策。

  這正是我們當前面臨的惱人困惑。對於公民個人信息安全,目前能夠想到的辦法,無外乎以繁多的法律法規條款,盡可能扎緊籬笆,同時加大懲處力度。但這種辦法,受制於差異極大的文化環境和執法力度,常常很難從紙面上真正落地。

  而更加薄弱的是,技術倫理明顯還未受到應有的重視,更缺乏現實的灌輸培育。很多科技者僅僅醉心於技術突破,由於和遠端的技術應用者以及被影響者相隔著明顯距離,他們幾乎不可能感受到技術發展可能帶來的麻煩與痛苦。對於“偷聽”的懷疑,其實恰恰反証了技術倫理的缺位可能帶來的問題。

  人工智能、大數據是當今社會發展的趨勢,沒有任何力量能夠阻止它們前進的步伐。我們認可並且也願意享受這樣的進步,但前提條件是,它們應是為人類服務,而不是羞辱、奴役人類。

  □徐冰(新京報智慧城市研究院研究員)

(責編:趙爽、仝宗莉)

分享讓更多人看到

返回頂部