人民網
人民網>>科普中國

“用魔法打敗魔法” AI時代如何構建數據安全生態

2024年04月30日07:43 | 來源:中國青年報
小字號

AI時代,數據安全治理需要做到全程管控。在一些專家看來,“如果靠過去一些成熟的技術去解決現在的問題是很難的,今天隻能通過‘用AI對抗AI’的方式,才能解決內容安全的問題。”

美國一項新提出的法案,進一步引發了人們對大模型時代數據安全問題的關注。

近日,一名美國眾議院議員提出了一項《生成式人工智能版權披露法案(Generative AI Copyright Disclosure Act)》,該法案要求企業在推出人工智能系統之前要告知政府,同時還要列出用於構建或更改該系統訓練數據集的所有受版權保護的作品。這則法案如被通過,將推動美國人工智能公司在模型訓練數據的使用上更加透明。

無獨有偶,在一個多月前歐洲議會投票通過並批准的《人工智能法案(Artificial Intelligence Act)》(以下簡稱《法案》)中,也明確要求對用於訓練、測試和驗証人工智能工具的數據進行適當的數據治理。

“近年來,各國紛紛出台了涉及人工智能的立法和政策,大多數國家在制定相關法規時都採取了謹慎的態度,避免過度限制人工智能的發展,以免阻礙創新和進步,這彰顯了國際社會對數據安全治理的重視。”在日前舉行的“2024中關村論壇-數據安全治理與發展論壇”上,香港科技大學首席副校長、英國皇家工程院院士郭毅可說。

當前,以人工智能(AI)為代表的新技術應用成為發展新質生產力的重要引擎,隨之而來的數據安全治理與發展也備受關注。2024中關村論壇(以下簡稱“論壇”)期間,舉辦了多場與AI相關的論壇活動,“AI時代的數據安全治理”也成為熱點話題,不少國內外專家學者以及業界人士在論壇上交流前瞻理念、分享研究成果,深化前沿領域數據安全治理效能。

數據安全治理新形勢

AI時代,“數據”是一個不得不提的關鍵詞。

“數據對於AI的進步非常重要。”在2024中關村論壇年會開幕式上,硅谷人工智能研究院院長皮埃羅·斯加魯菲說。他提到,從1997年IBM的“深藍”電腦擊敗當時的國際象棋世界冠軍卡斯帕羅夫,到2016年谷歌人工智能程序AlphaGo戰勝韓國圍棋世界冠軍李世石,再到如今OpenAI的GPT橫空出世……AI技術快速發展背后,主要的驅動因素就是大量的數據。

但隨著AI技術日新月異的變化,尤其是生成式人工智能(AIGC)的快速發展,其性能在優化的同時也放大了數據安全風險,其可能引發的價值偏見、隱私泄露、虛假信息等問題引起了大眾的擔憂。“現在很多診斷是由AI來做的,比如你要將GPT用於診斷疾病,我們放心嗎?很多時候是不放心的。”皮埃羅·斯加魯菲說。

在清華大學計算機科學與技術系教授、人工智能研究院基礎模型研究中心副主任黃民烈看來,AIGC的出現,使得現在的數據安全治理與過去相比有很大的不同。他表示,AIGC能通過訓練去組合、生成一些在過去的語料庫中根本沒有出現過的新內容,這些內容可能是有害的。

“在生成式人工智能(AIGC)時代,我們在數據安全層面,面臨的是不斷組合和創造新的數據安全風險的問題,徹底解決這種風險,需要算法和工具的支撐,而不是靠人,或者靠一些靜態的方法去做相對固定的檢測。”黃民烈說,可以去研究制定一些有針對性的對抗和攻擊方法,比如事先讓算法發現模型的漏洞和風險﹔也可以利用算法追蹤模型存在的風險,再有針對性地制定安全手段。

如今,除了類似ChatGPT的通用大模型,專注某一垂直領域的行業大模型也層出不窮。奇安信集團副總裁劉前偉長期關注行業大模型的數據安全治理問題,他觀察到,很多行業大模型廠商都有一個普遍的擔心:模型預訓練的語料會不會被其他人竊取?

他解釋說,行業大模型在做預訓練時,被“喂”的數據大多是行業知識,“這些語料可能是不同企業最有競爭力的一些數據。”如果存在漏洞,可能導致這些核心的數據資產被泄露出去,“這是在通用大模型裡,我們過去沒有特別關注的一點”。

同時,作為通用大模型的使用者,很多人都會問一個問題:當我去問大模型問題時,會不會造成商業機密、個人信息的泄露。劉前偉在論壇上也提出了上述疑問。

對於如何解決上述問題,劉前偉也同意黃民烈教授的觀點。“如果靠過去一些成熟的技術去解決現在的問題是很難的,今天隻能通過‘用AI對抗AI’的方式,才能解決內容安全的問題。”

構建安全可信的數據治理生態

2023年5月,包括“ChatGPT之父”山姆·奧特曼(Sam Altman)在內350位AI領域權威人士簽署了一封聯名公開信,信中寫道:“應將緩解AI導致的滅絕風險,與其他社會規模風險(如大流行病和核戰爭)等同重視,作為全球優先事項。”

“人工智能凸顯了數據的重要性,再創造一個全球性的治理框架,建立互信是最重要的因素。”新加坡資訊通信媒體發展局局長柳俊泓在論壇發言中指出,對數據和AI的信任,是在數字時代平衡保護和創新的基礎。

論壇期間,不少專家在討論中提到了一個詞——可信AI,該詞的核心就是AI大模型的安全問題。“我們必須認識到數據安全是永遠的命題,一定要‘安全可信’。”中國工程院院士沈昌祥在論壇上表示,要用主動免疫可信計算筑牢人工智能安全防線。

在他看來,數據安全治理需要做到全程管控,實現六個“不”:首先讓進攻者“進不去”,進去后“拿不到”數據,即使進攻者拿到數據也白拿,因為數據被加密“看不懂”,並且系統帶有自動免疫功能,讓進攻者“改不了”數據。同時,需要保証設備“癱不了”,能在發現故障后及時採取措施確保穩定運行,最后是確保攻擊行為可追溯“賴不掉”。

“達到這六個‘不’的效果,才能使得數據安全治理達到有效的目標。”沈昌祥介紹,經過30多年的發展,我國已經構建了比較完整的新型產業空間。他表示,目前,中國已經具備可信計算功能的國產CPU,嵌入式可信芯片及可信根,具備可信計算3.0技術的設備。

除了可信計算,一系列前沿技術也為構建安全可信的數據治理生態提供支持。香港科技大學首席副校長、英國皇家工程院院士郭毅可認為,在增強數據安全上,區塊鏈和量子密碼學等技術有較大應用前景。

“區塊鏈有透明和不可更改的技術特性。”郭毅可說,將區塊鏈技術應用在數據安全治理領域,能在確保數據完整性的同時,進一步降低數據授權風險和數據篡改風險。他還提到,可以通過數據匿名化技術、用戶同意和隱私設計規則,以及實施數據分類、訪問控制和加密等方法,保護知識產權和防止未經授權的數據披露。

在郭毅可看來,加密技術能保護數據在靜止和傳輸過程中的安全。此外,還可以利用差分隱私、數據屏蔽等匿名化技術來刪除個人身份信息,以確保數據的機密性,同時保留其對AI模型訓練的有用性。

“用魔法(即AI技術)打敗魔法”,這是劉前偉提出的AI時代數據安全治理的一大出路。在論壇上關於AI數據安全治理相關技術路徑的討論中,隱私計算、聯邦學習等被反復提及。

除了問題,AIGC也為數據治理提供了新的、更有效的手段。歐洲科學院院士、清華大學人工智能研究院常務副院長孫茂鬆提到,現在數據裡面有很多隱私問題,但可以用生成式人工智能(AIGC)生成符合真實情況的數據,同時規避掉用戶真實的隱私數據。“所以,實際上生成式人工智能對我們數據治理也有非常重要的正面推動作用。”

創新AI監管機制

“數據安全治理是人工智能和數字轉型時代一個至關重要且不斷演進的議題。”郭毅可說,人工智能時代,需要在保護數據隱私和敏感信息的同時,建立國際機構框架和法規來規范數據安全。

近年來,包括英國的《支持創新的人工智能監管規則》、歐盟的《人工智能法案》在內,多個國家和地區陸續出台了相關的政策和法律,規范人工智能的發展,其中有不少內容與數據安全治理有關。

2023年8月15日,全球第一部關於生成式人工智能治理的專門法律規范《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)在我國正式施行。中國互聯網協會研究中心副主任吳沈括認為,《辦法》著眼生成式人工智能服務語境下的數據治理,引入了多項專門規范,對於構建面向AI時代的數據治理新生態具有重要的制度指引意義。

在探索人工智能可控發展過程中,監管沙盒機制是一個創新手段。監管沙盒是指在風險可控的前提下,通過設立限制性條件和制定風險管控措施,允許創新產品技術服務或商業模式在真實市場環境中,以真實用戶為對象進行深度測試的一種機制。歐盟《人工智能法案》明確要求其成員國要創建人工智能監管沙盒。目前,挪威、西班牙等國已開始監管沙盒相關工作。

柳俊泓提到,目前有很多技術、政策,能讓企業從消費者數據集中獲得價值,同時也可以確保消費者的數據集得到保護。他認為接下來應當建立監管沙盒,在其中使用並且開發這些技術和政策,從而能在最大化的使用數據的同時,保障數據安全。

論壇期間,“北京人工智能數據訓練基地監管沙盒”正式發布,這是全國首例人工智能領域監管沙盒。北京市經濟和信息化局副局長毛東軍表示,在管理上,利用監管沙盒管理機制,能幫助企業在合法合規的范圍內規避數據風險﹔在技術上,通過數據加密、脫敏技術、雲桌面操作、安全管理等先進技術,可以為模型企業和數據企業提供基礎保障,“真正實現數據的可用、可見、不可得,避免數據泄露等高風險事件”。

從出台政策、法律,到利用監管沙盒進行制度和技術實驗,其目的都是推動構建人工智能(AI)時代的數據安全治理新生態。

當下,給人工智能裝“剎車”成為行業內討論的熱門話題,在論壇上也不鮮見。“‘剎車’就是針對技術性風險的治理體系。”清華大學蘇世民書院院長薛瀾在論壇接受記者採訪時表示,構建治理體系的目的,就是來規制濫用、誤用和惡用人工智能的行為。

薛瀾介紹,我國的人工智能治理體系共有三層,第一層為《新一代人工智能倫理規范》等所有社會主體都要遵守的廣泛性基礎性原則﹔第二層為針對人工智能具體領域的具體法律法規,比如《辦法》﹔第三層則是鼓勵企業加強內部機制建設,比如成立倫理委員會等。

如果“剎車”安裝不到位,要如何應對?薛瀾說:“我們特別鼓勵企業加強自身的機制建設,這非常關鍵。另外一點,也需要全社會的公眾監督。”(見習記者賈驥業 、記者朱彩雲)

更多精彩內容,請下載科普中國客戶端。

返回人民網科普頻道

(責編:李慧博、楊鴻光)

分享讓更多人看到

返回頂部