人民網(wǎng)北京4月9日電(趙竹青)大規模的網(wǎng)絡(luò )攻擊曾經(jīng)倒逼了殺毒軟件的誕生,應用日漸廣泛的人工智能,又該如何抵御“病毒”的攻擊?記者從清華人工智能研究院獲悉,該院RealAI(瑞萊智慧)創(chuàng )業(yè)團隊8日推出針對算法模型本身安全的檢測平臺,意味著(zhù)人工智能也有了“殺毒軟件”。
人工智能發(fā)展的天然“軟肋”
作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術(shù),人工智能目前正在滲透到了社會(huì )生活的方方面面。隨著(zhù)數據泄漏、算法偏見(jiàn)、算法漏洞等一系列問(wèn)題的暴露,其安全需求和倫理影響也逐漸顯現,給國家經(jīng)濟和社會(huì )安全帶來(lái)諸多風(fēng)險和挑戰。
RealAI團隊CEO田天介紹,現階段,由于人工智能技術(shù)不成熟以及惡意應用所導致的安全風(fēng)險,本質(zhì)上屬于人工智能的“技術(shù)短板”,比如模型缺陷、算法不可解釋性、數據強依賴(lài)性等,是限制人工智能發(fā)展最明顯的“軟肋”。
算法突破,是人工智能行業(yè)發(fā)展的基石和熱點(diǎn)。中國信息通信研究院2018年發(fā)布的《人工智能安全白皮書(shū)》指出,“算法安全”是人工智能六大安全風(fēng)險之一。同時(shí),白皮書(shū)認為“對抗樣本攻擊誘使算法識別出現誤判漏判”這一算法模型缺陷是算法安全的重要風(fēng)險項。
“病毒”入侵或讓AI“精神錯亂”
“對抗樣本原本是機器學(xué)習模型的一個(gè)有趣現象?!碧锾旖忉?zhuān)峭ㄟ^(guò)在源數據上增加一些細微改變,人類(lèi)感官很難辨識,但足以讓機器學(xué)習模型接受并做出錯誤的分類(lèi)決定,從而把一座山峰識別為一只狗,或者把C羅識別為梅西。
也就是說(shuō),這些對抗樣本的攻擊,會(huì )像病毒一樣入侵人工智能系統的“意識”中,讓它出現“精神錯亂”而無(wú)法工作。
隨著(zhù)人工智能的普及,這些例子不斷地在現實(shí)中上演:在路面上粘貼對抗樣本貼紙模仿合并條帶,誤導自動(dòng)駕駛汽車(chē)拐進(jìn)逆行車(chē)道;佩戴對抗樣本生成的眼鏡,輕易破解手機面部解鎖;胸前張貼對抗樣本貼紙即可實(shí)現隱身……
尤其是在人臉識別、自動(dòng)駕駛等特定領(lǐng)域,這種“AI病毒”可能造成難以挽回的人員和財產(chǎn)損失。
“殺毒軟件”提升AI系統可靠性
“目前,人工智能安全還是一個(gè)新興領(lǐng)域,存在較高的技術(shù)壁壘?!碧锾旄嬖V記者,隨著(zhù)攻防相互的發(fā)展,對抗樣本等攻擊手段變得愈發(fā)復雜,尤其在開(kāi)源社區、工具包的加持下,高級復雜攻擊方法快速增長(cháng),但是相關(guān)防御手段的升級卻難以跟上。
作為清華人學(xué)人工智能研究院的官方團隊,RealAI曾率先提出多項攻防算法,被主流開(kāi)源軟件FoolBox等收錄為標準,與清華聯(lián)合組成的戰隊曾斬獲多項人工智能?chē)H大賽冠軍。
團隊開(kāi)發(fā)的RealSafe人工智能安全平臺,能夠提供從測評到防御的完整解決方案,快速緩解對抗樣本攻擊威脅。相較于目前常見(jiàn)的開(kāi)源工具需要自行部署、編寫(xiě)代碼,該平臺支持零編碼在線(xiàn)測評,用戶(hù)只需提供相應的數據即可在線(xiàn)完成評估,極大降低了算法評測的技術(shù)難度。同時(shí),平臺采用可量化的形式對安全性進(jìn)行評估,評分越高則模型安全性越高。針對檢測出來(lái)的漏洞,平臺還可提供合適的防御方案,提升模型安全性。
“推出安全檢測平臺是規避風(fēng)險的路徑之一,未來(lái)還需要聯(lián)合各界力量共同推動(dòng)人工智能安全相關(guān)的國家標準、行業(yè)標準、聯(lián)盟標準的制定,為人工智能產(chǎn)品安全評估評測提供統一參考?!碧锾煺f(shuō)。
來(lái)源:人民網(wǎng)-科技頻道