人民網
人民網>>科普中國

前十位AI類APP需求規模同比增長近40倍,應用場景的豐富也增加了信息安全風險——

織好AI用戶信息“防護網”

——“人工智能與信息保護”系列報道之一

本報記者 姜忠奇
2024年06月03日07:33 | 來源:人民網-人民日報海外版
小字號

一名青年學生在安徽省阜陽市舉辦的網絡安全宣傳周展覽會上體驗VR展品。王 彪攝(人民視覺)

一名青年學生在安徽省阜陽市舉辦的網絡安全宣傳周展覽會上體驗VR展品。王 彪攝(人民視覺)

內蒙古自治區呼和浩特市第二十七中學學生在繪制網絡安全知識手抄報。丁根厚攝(人民視覺)

內蒙古自治區呼和浩特市第二十七中學學生在繪制網絡安全知識手抄報。丁根厚攝(人民視覺)

對話交流、創作詩歌、編寫代碼、自動繪畫……以大語言模型為代表的生成式人工智能(AI)快速發展,正前所未有地改變著人們的工作和生活。

隨著生成式AI應用場景日益增多,個人信息保護也面臨新的挑戰:對數據的收集和挖掘,會不會侵犯個人隱私?怎樣處理好個人信息保護與數據合理利用之間的關系?使用個人信息的邊界在哪兒?本報記者就此進行了採訪。

“畫像”背后藏風險

“對許多上班族來說,做PPT是一件讓人頭疼的事,經常要加班加點熬夜制作,有時還要額外付費聘請專業設計人員修改潤色。”在北京某互聯網公司工作的小潘告訴記者,現在通過生成式AI軟件,隻需確定主題、導入大綱、選擇模版,不到1分鐘就能生成一份專業又精美的PPT。

盡管效率明顯提高,小潘卻心有疑慮:PPT裡提到的工作內容、行業數據、個人情況,會不會被儲存在AI“大腦”中?如果涉及企業戰略規劃、商業秘密、關鍵技術,有沒有被惡意竊取或泄露給第三方的可能?“目前,還沒看到軟件有類似‘一鍵擦除數據’的功能,無法確定這些信息的最終去向。”小潘說。

現實中,不管是生成PPT、制作簡歷還是自動美顏、智能聊天,都不可避免地要向生成式AI提供姓名、職業、人臉、聲紋等個人信息,其中潛藏著不容忽視的隱私泄露風險。

比如,一款基於生成式AI技術的攝影軟件一度走紅網絡。用戶花9.9元,上傳個人照片,選擇喜歡的模版,便能獲取一套由AI生成的寫真集。在AI寫真“刷屏”網絡的同時,該軟件也因存在濫用用戶信息的嫌疑受到批評。有網友說:“向一款手機APP裡傳這麼多照片,讓我感到很不安。誰知道這些照片會不會被作為其他用途?”后來,研發團隊致歉,承諾上傳照片隻用於數字寫真制作,制作完成后,照片也將自動刪除。

出於對新興技術的好奇,消費者往往在不知不覺中將個人隱私“透露”給AI。反過來,憑借獲取到的信息,通過強大的數據整合、處理能力,生成式AI也能判斷出個人的身份特征和行為習慣。有研究發現,聊天機器人可以從日常對話中精准提煉關鍵信息,了解其購物習慣、個人興趣乃至個人觀念,從而為用戶精准“畫像”。

“生成式AI具有高度智能化特征,借助其出色的內容理解和學習能力,從海量信息中獲取個人隱私,甚至可能通過對話‘誘導’用戶打開‘心房’。”西南政法大學科技法學研究院副院長鄭志峰告訴記者,這意味著生成式AI十分“懂”你,在侵害個人隱私方面更加高效、隱蔽,不易察覺。

用戶數據成“養料”

“我們將對您主動上傳的文檔材料進行脫敏處理后作為AI訓練基礎材料使用……”前段時間,某辦公軟件隱私政策中的條款被質疑濫用用戶信息。隨后,該軟件發布聲明,保証用戶文檔不再被用於AI訓練目的。

啥是AI訓練?“對生成式AI來說,離不開算法、算力、數據三要素。其中,數據是AI的‘養料’,‘投喂’得越多,AI越‘聰明’。”鄭志峰介紹,這決定了生成式AI必須盡可能多地採集、處理和使用各種數據,為大模型成長提供充足“營養”。

當前,各類數據採集無時不有、無處不在,幾乎每個人都被置於數字化空間之中,個人隱私極易以數據的形式被存儲、復制、傳播。在所有數據類型中,個人信息能反映個人行為、偏好、行動軌跡等,是最有價值的數據類型之一。

“許多企業利用用戶數據優化產品和服務、定向投放廣告或開展經營活動。”中國社會科學院法學研究所網絡與信息法研究室副主任周輝說,“有的企業片面關注數據價值,忽視了隱私保護和數據安全,可能出現違法收集、濫用用戶信息等行為。”

生成式AI的快速發展和應用門檻的大幅降低增加了隱私泄露風險。研究報告顯示,截至2024年1月,前十位AI類APP需求規模同比增長近40倍。生成式AI正加速滲透人們生活的方方面面。然而,應用場景日益豐富的同時,違規收集、使用用戶信息的花樣也變多了。

借助生成式AI的換臉和擬聲技術進行遠程視頻詐騙就是一例。有媒體報道,郭先生接到“好友”的視頻通話,對方聲稱需要保証金用以項目競標,想借郭先生公司賬戶“走個賬”。出自對“好友”的信任,郭先生陸續給對方轉賬共計430萬元。等郭先生再次聯系好友時才發現自己被騙。

“隨著AI生成內容愈發逼真,傳統內容審核機制和安全防護手段已不足以適應新形勢的要求。”中國信通院人工智能研究所高級業務主管呼娜英說,生成式AI技術愈加成熟,用戶在保護好個人隱私的同時,也需要提升對新型網絡犯罪的辨別和防范能力。

給AI產品貼“標記”

怎樣才能滿足生成式AI的“胃口”,同時又保護好個人隱私呢?處理好兩者關系,既需要法律法規的約束,也離不開技術手段的支撐。

去年7月,國家網信辦等七部門聯合發布《生成式人工智能服務管理暫行辦法》,多處提及個人信息保護問題。強調生成式AI服務提供者“對使用者的輸入信息和使用記錄應當依法履行保護義務,不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人提供使用者的輸入信息和使用記錄”等。

“中國目前有關個人隱私保護的法律法規比較完善。未來需要根據生成式AI技術特點進一步構建具體的權利、義務和責任規則。”鄭志峰舉例說,AI的風險等級是多樣的,不同AI算法對於個人隱私的侵害程度不同,需要有針對性的具體措施。

通過技術手段識別、阻斷和追溯生成式AI生成侵犯個人隱私的有害信息,也是人工智能治理實踐中的重要措施之一。根據《互聯網信息服務深度合成管理規定》, 深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當採取技術措施添加不影響用戶使用的標識。

“通俗地說,就是給生成式AI的產品和服務貼上統一的‘標記’,提示用戶該內容由AI合成,也有助於監管部門管理。”呼娜英介紹,由於顯式標識容易被裁剪或刪除,還需進一步探索隱式標識的解決方案。

盡管生成式AI在一定程度上存在隱私泄露風險,但並不意味著它與信息保護之間是完全對立的,關鍵是要找到發展與規范之間的平衡點,在生活越來越“智能”的同時,守護好個人隱私安全,推動生成式AI健康可持續發展。

更多精彩內容,請下載科普中國客戶端。

返回人民網科普頻道

(責編:李慧博、張雯)

分享讓更多人看到

返回頂部