每日經濟新聞 2024-05-21 14:25:31
鄔江興反復強調在應用中盡量避免使用單一模型,單一模型如果是在“一本正經地胡說八道”,使用者是不能判斷的。“任何人在某一個模型、某一個數據上做手腳是沒用的,它可能對A模型有用,但對B模型沒用,所以我們用交叉印證來驗證。”鄔江興說。
每經記者 張蕊 每經編輯 陳星
參展者登上自行車開始騎行,此時心率計、功率計、踏頻器等分別采集數據并上傳,屏幕上實時顯示騎行距離、速度、心率、踏頻等各類隱私數據……
這是在5月17日至19日舉行的2024年第十二屆西湖論劍•數字安全大會數字安全建設成果展上的一幕。該展位工作人員向記者介紹:“我們通過這種形式來展示數據分類分級的過程,以及在傳輸中如何借助大模型檢測潛在的數據泄漏、惡意攻擊等威脅。”
近一段時間以來,以大模型為代表的AI(人工智能)技術持續火爆,在驚喜于大模型的“聰明能干”時,很多人也開始隱隱擔憂:當我們在跟大模型對話時,會不會造成個人信息或者商業機密的泄露?AI在帶來便捷與紅利的同時,還會帶來哪些安全方面的挑戰?我們又應該如何應對?
帶著這些問題,《每日經濟新聞》記者在大會期間采訪了包括院士、專家學者、網絡安全頭部企業在內的多位業界人士。
隨著大模型和生成式AI的興起,數據安全問題日益凸顯。
“一旦交互,肯定會有數據泄漏的風險。比如你的位置、個人喜好會在不經意間被收集。”浙江大學計算機科學與技術學院副教授、杭州市人工智能學會副理事長金小剛接受《每日經濟新聞》記者采訪時說:“我們使用大模型的方式是跟它對話,收集數據是肯定存在的,這就需要大家最好不去使用信譽不好的企業平臺。”
中國科學技術大學公共事務學院、網絡空間安全學院教授左曉棟在接受《每日經濟新聞》記者采訪時表示:“當前,對生成式AI的安全關切是多方面的,包括意識形態安全和數據安全等。”
他舉例說,在數據安全方面,生成式AI要依靠數據來訓練,但數據如果被污染了怎么辦?此外,人工智能在訓練中有時要用到個人信息,甚至是商業秘密,相關方的權益該怎么保證?個人是不是有信息權益保護方面的訴求?
意識形態安全方面,生成結果是否符合法律法規的要求?這些數據的使用是否合法?這些也是大家密切關注的。
談及大模型在數據處理、分析、生成中可能帶來的數據泄露、濫用等風險,科技部網絡空間安全2030計劃專家組成員、教育部信息技術新工科聯盟網絡空間安全工委會主任委員、俄羅斯國家工程院外籍院士胡瑞敏對每經記者提到了三大安全隱患:數據隱私,包括數據泄露;模型劫持;內容的安全以及合規合法和安全審計問題。
“這就要求安全技術必須跟進,并且和大模型有機結合。”胡瑞敏說,據他了解,國內很多單位已經在開展這方面工作。
除了訓練、使用大模型帶來的安全風險,不法分子還會利用AI深度偽造行騙。事實上,深度偽造技術早已出現,最典型的就是AI換臉。
浙江墾丁律師事務所聯合創始人歐陽昆潑在接受《每日經濟新聞》記者采訪時表示,在AI時代,深度偽造技術的濫用使圖片、視頻的真偽越來越難鑒別。“深度偽造現在已經產生了很多刑事案件。”
不僅如此,現在已經出現了“黑模型”——基于一些“黑灰產”數據訓練出來的大模型,專門用于詐騙、竊取隱私、“釣魚”等。他舉例說,以前要做一個釣魚軟件或者黑客攻擊,技術門檻較高,但現在只要輸入指令,“黑模型”就可以生成一個釣魚軟件,門檻非常低。
中國電信集團公司原總經理、全球云網寬帶協會董事會主席李正茂在大會期間對《每日經濟新聞》記者表示:“我們感到現在對電信網絡詐騙應對起來比較麻煩,如果AI技術被犯罪分子利用,就會變得更加麻煩。若要依賴第三方幫你甄別,可能還沒甄別出來就已經被騙了,這是個大問題,要引起足夠重視。”
每經記者注意到,多位專家在演講或受訪中都提到安防領域“道高一尺,魔高一丈”,那么以AI對抗AI是否是一個出路?
對此,中國工程院院士鄔江興對《每日經濟新聞》記者表示:“同一個模型,不能自己檢驗自己,但是可以用別的AI模型來檢驗你的AI模型。”
安恒信息董事長范淵在接受《每日經濟新聞》記者采訪時表示,隨著AI技術的發展,威脅也愈發凸顯。“以AI對AI、以AI管AI是數字治理的必然趨勢。AI讓網絡攻擊的門檻更低,更難以防范。用AI來防控和治理AI,正在成為安全領域的必選項。”
范淵提到,現在很多地方開放公共數據去訓練和支持人工智能產業,但同時又很擔心會帶來數據和隱私的泄露。基于機密計算的大模型訓練與推理,讓這些問題得以解決。
他還提到,在內容安全方面,也有很多大模型的注入,內容的輸入、輸出安全,都是非常具有挑戰的部分,數據安全、模型安全、應用安全,這些都是讓人工智能更安全的重要部分。“一方面是如何及時發現與阻斷虛假內容;另一方面是防止侵犯知識產權、敏感數據泄露以及如何防御提示詞的注入、提示詞的繞過等。”
AI還可以提升安全問題的解決效率。范淵舉例說,之前600人/天的數據分類分級項目,結合AI大模型“恒腦”知識庫、相關語義識別能力、關聯推理能力,以及站在業務視角的字段理解與注釋,可以協助人工快速決策判斷,最后只用20人/天就完成了,效率提升30倍。
范淵坦言,也有很多頑疾始終沒有解決。“產品不夠、服務來湊,海量告警數據需要靠海量的人去解決。”
“但是AI為這個行業、為數字化建設帶來了巨大變革。”范淵直言,AI可以把幾百萬個告警數量減少到幾萬個,從幾萬個當中智能甄別哪些不構成威脅或不需要處理,解決了誤報、待優化的內容,以及分辨可防御的、已經防御完成的告警,最后只留下少量告警需要人工研判,這是人力可處理的。
不過,在金小剛看來,AI永遠是工具,最終起作用的還是人。“在安全問題上我永遠主張創新才是真正解決問題的方法。”
對于AI帶來的安全風險,我們如何應對?
鄔江興對每經記者表示,AI目前在科學上具有不可解釋性,我們沒辦法對它的數學、物理性質作出解釋,這是它基本原理上的缺陷,所以很多人想利用這種缺陷進行不法行為。
“我們現在有個解決辦法,就是通過基于內生安全的AI應用系統來解決。”鄔江興說,這種AI應用系統是多維度、多種AI系統的交叉印證,不法分子在某個AI系統上做了手腳,在交叉印證中就會被發現。
“任何人在某一個模型、某一個數據上做手腳是沒用的,它可能對A模型有用,但對B模型沒用,所以我們用交叉印證來驗證。”鄔江興說,就像盲人摸象一樣,一個人摸,可能認為象是圓柱體,但是多角度結合起來看才知道象是什么樣子。局部的問題我們看不清楚,如果是多個維度看就能看清問題了。
對于不法分子借助AI工具詐騙的行為,鄔江興表示,AI的特異性決定了不法分子可以用某一個模型詐騙,但放在另外的模型下可能就不管用,就像如果不法分子進行黑客攻擊,他可以攻擊一個模型,但不能同時攻擊多個模型。“所以我們要用多樣性印證。”
鄔江興反復強調在應用中盡量避免使用單一模型,單一模型如果是在“一本正經地胡說八道”,使用者是不能判斷的,但是如果其他模型也是這樣的結果,使用者就可以大致有個判斷。
“我們不能機會主義地去用那些不安全的AI系統,但也不能理想主義地去用絕對安全的AI系統,因為不可能絕對安全。”鄔江興說,這中間怎么權衡?就是要用多樣性來保證。使用幾種典型的模型,相互之間進行印證。
對于AI,尤其是深度偽造帶來的安全風險,胡瑞敏認為,首先要對智能技術應用做一定約束,要實現可信的智能,對模型的安全等都要進行有效監管;其次,要提升深度偽造的檢測技術,應該有全局布局,確保深度偽造的風險可控。
這些鑒別技術普通人是否易得?胡瑞敏表示,我們有很多深度偽造的鑒別技術,很容易做成工具為大眾所使用。“當然,由于智能技術發展非常快,也越來越成熟,這也給鑒別技術提出了新的要求。”
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP