8月26日晚間消息,360公司表示,AI關(guān)鍵基礎(chǔ)設(shè)施正面臨三重風險,包括某些人臉識別設(shè)備能讓任意人通過,不僅AI算法存在漏洞,其所依賴的關(guān)鍵基礎(chǔ)設(shè)施也同樣會被攻擊。
360 AI安全研究院表示,目前AI的三重風險包括:學(xué)習(xí)框架風險、硬件風險及云平臺風險。
第一,針對深度學(xué)習(xí)框架安全風險。深度學(xué)習(xí)框架主要可以劃分為云端學(xué)習(xí)框架和終端學(xué)習(xí)框架。云端框架安全風險主要來自于自身代碼的實現(xiàn)以及第三方的依賴庫問題;終端框架安全風險主要存在于模型網(wǎng)絡(luò)參數(shù)、模型網(wǎng)絡(luò)結(jié)構(gòu),以及模型轉(zhuǎn)換過程。
第二,針對硬件相關(guān)的安全風險。據(jù)英偉達官網(wǎng)統(tǒng)計,截至今年7月,關(guān)于GPU驅(qū)動漏洞的數(shù)目達到數(shù)百個;芯片漏洞以幽靈、熔斷為例,幽靈漏洞可以造成泄露敏感數(shù)據(jù)、執(zhí)行特定代碼,熔斷漏洞導(dǎo)致用戶態(tài)獲取特權(quán)內(nèi)存的數(shù)據(jù),這些漏洞影響了Intel、部分ARM的處理器。
第三,針對云平臺的安全風險。用于深度學(xué)習(xí)任務(wù)的節(jié)點性能強大,因此總會有一些攻擊者想要非法使用這些資源進行挖礦。比如,今年6月,微軟通報部分Kubeflow存在未授權(quán)訪問的問題,導(dǎo)致大量設(shè)備被非法挖礦。
“只有在確保AI系統(tǒng)的安全,才有可能放心享受AI的便利,那么保證系統(tǒng)中AI關(guān)鍵基礎(chǔ)設(shè)施的安全至關(guān)重要”,360 AI安全研究院表示,AI關(guān)鍵基礎(chǔ)設(shè)施的安全問題可以通過權(quán)限控制、訪問隔離、參數(shù)過濾等措施進行緩解,針對AI關(guān)鍵基礎(chǔ)設(shè)施的安全問題,需要建立多維度、一體化風險評估方法以及對應(yīng)防御措施。