齊向東委員:
平衡AI技術創新與安全風險

“未來隨著人工智能大模型日益成為關鍵基礎設施,對其惡意攻擊手段和新型風險場景也將激增,由此衍生的數據隱私泄露、認知操控、基礎設施癱瘓等安全風險必須警惕。”全國政協委員、奇安信科技集團股份有限公司董事長齊向東日前接受科技日報記者採訪時說,對整個AI行業來說,平衡技術創新與安全風險是重要課題。
“AI也有‘成長的煩惱’。”齊向東坦言,隨著AI技術的深度應用,大模型自身面臨和隨之帶來的安全挑戰也日益嚴峻。
在他看來,相關挑戰大致可以分為三類。
第一類是人工智能大模型自身的安全問題。其中,開發風險、數據風險、應用風險和基礎環境風險等四種安全風險比較突出。開發方面,開源大模型要重點防范代碼缺陷和預留后門等問題﹔應用方面,要防范對訓練數據“投毒”,警惕篡改模型、篡改配置﹔數據方面,要小心內部配置錯誤和弱口令等造成的數據庫暴露﹔基礎環境方面,要重點關注雲、傳統設備漏洞等。
第二類是利用AI開展網絡攻擊的問題。AI促進了網絡攻擊手段的更新迭代,“飽和式”攻擊成為可能,攻擊者可以瞬時發動海量攻擊,打垮已有的網絡安全體系。AI還提升了“以假亂真”的能力,深度偽造、認知戰、釣魚等威脅加劇。攻擊者可利用AI“換臉變聲”輸出虛假信息,開展網絡詐騙,或輸出有悖主流價值觀的內容以危害認知安全。
第三類是通過攻擊AI引發的網絡攻擊“大爆炸”。當大模型嵌入智慧城市、工控系統、智慧政務等關鍵領域時,會放大漏洞等安全威脅,一旦AI大模型遭到攻擊,可能會牽一發而動全身,引發社會服務中斷、生產停滯、隱私數據泄露等安全事件。
談及如何更好應對安全挑戰,齊向東建議,應建立適配大模型的縱深防御體系,筑牢AI的安全根基﹔制定大模型安全強制合規要求,夯實AI安全發展的制度保障﹔擁抱先進的安全防護手段,用好“AI+安全”創新成果。
他進一步闡釋,要明確大模型安全的組織架構,界定安全主體責任,對基礎安全、數據安全、應用系統開發安全、運行安全等方面提出清晰的技術保障要求﹔做好大模型運行安全監測和內容風控,定期開展安全評估測試,完善應急響應機制,一旦發現異常行為或潛在的安全事件,第一時間進行處置,將安全威脅消除在萌芽狀態。“隻有筑牢安全防線、守住合規底線,創新才有可能行穩致遠。”齊向東說。
分享讓更多人看到
- 評論
- 關注