人工智能有了“殺毒軟件” 可在線測評算法模型安全性

趙竹青

2020年04月10日10:24  來源:人民網
 

大規模的網絡攻擊曾經倒逼了殺毒軟件的誕生,應用日漸廣泛的人工智能,又該如何抵御“病毒”的攻擊?記者從清華人工智能研究院獲悉,該院RealAI(瑞萊智慧)創業團隊8日推出針對算法模型本身安全的檢測平台,意味著人工智能也有了“殺毒軟件”。

人工智能發展的天然“軟肋”

作為引領新一輪科技革命和產業變革的顛覆性技術,人工智能目前正在滲透到了社會生活的方方面面。隨著數據泄漏、算法偏見、算法漏洞等一系列問題的暴露,其安全需求和倫理影響也逐漸顯現,給國家經濟和社會安全帶來諸多風險和挑戰。

RealAI團隊CEO田天介紹,現階段,由於人工智能技術不成熟以及惡意應用所導致的安全風險,本質上屬於人工智能的“技術短板”,比如模型缺陷、算法不可解釋性、數據強依賴性等,是限制人工智能發展最明顯的“軟肋”。

算法突破,是人工智能行業發展的基石和熱點。中國信息通信研究院2018年發布的《人工智能安全白皮書》指出,“算法安全”是人工智能六大安全風險之一。同時,白皮書認為“對抗樣本攻擊誘使算法識別出現誤判漏判”這一算法模型缺陷是算法安全的重要風險項。

“病毒”入侵或讓AI“精神錯亂”

“對抗樣本原本是機器學習模型的一個有趣現象。”田天解釋,它是通過在源數據上增加一些細微改變,人類感官很難辨識,但足以讓機器學習模型接受並做出錯誤的分類決定,從而把一座山峰識別為一隻狗,或者把C羅識別為梅西。

也就是說,這些對抗樣本的攻擊,會像病毒一樣入侵人工智能系統的“意識”中,讓它出現“精神錯亂”而無法工作。

隨著人工智能的普及,這些例子不斷地在現實中上演:在路面上粘貼對抗樣本貼紙模仿合並條帶,誤導自動駕駛汽車拐進逆行車道﹔佩戴對抗樣本生成的眼鏡,輕易破解手機面部解鎖﹔胸前張貼對抗樣本貼紙即可實現隱身……

尤其是在人臉識別、自動駕駛等特定領域,這種“AI病毒”可能造成難以挽回的人員和財產損失。

“殺毒軟件”提升AI系統可靠性

“目前,人工智能安全還是一個新興領域,存在較高的技術壁壘。”田天告訴記者,隨著攻防相互的發展,對抗樣本等攻擊手段變得愈發復雜,尤其在開源社區、工具包的加持下,高級復雜攻擊方法快速增長,但是相關防御手段的升級卻難以跟上。

作為清華人學人工智能研究院的官方團隊,RealAI曾率先提出多項攻防算法,被主流開源軟件FoolBox等收錄為標准,與清華聯合組成的戰隊曾斬獲多項人工智能國際大賽冠軍。

團隊開發的RealSafe人工智能安全平台,能夠提供從測評到防御的完整解決方案,快速緩解對抗樣本攻擊威脅。相較於目前常見的開源工具需要自行部署、編寫代碼,該平台支持零編碼在線測評,用戶隻需提供相應的數據即可在線完成評估,極大降低了算法評測的技術難度。同時,平台採用可量化的形式對安全性進行評估,評分越高則模型安全性越高。針對檢測出來的漏洞,平台還可提供合適的防御方案,提升模型安全性。

“推出安全檢測平台是規避風險的路徑之一,未來還需要聯合各界力量共同推動人工智能安全相關的國家標准、行業標准、聯盟標准的制定,為人工智能產品安全評估評測提供統一參考。”田天說。

(責編:李慧博、董菁)