每日經(jīng)濟新聞 2023-04-11 20:20:39
◎《辦法》提出,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人,需承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;應(yīng)當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責。
◎行業(yè)研究人員盤和林在接受《每日經(jīng)濟新聞》記者采訪時表示,此次征求意見稿對生成式人工智能的響應(yīng)領(lǐng)先全球,符合我國先規(guī)范后發(fā)展的產(chǎn)業(yè)推進路徑。
每經(jīng)記者 李宣璋 每經(jīng)編輯 陳旭
4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布通知,就《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《辦法》)向社會公開征求意見。
所謂生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。
《辦法》指出,研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的,適用本《辦法》。
同時,《辦法》強調(diào),國家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國際合作,鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源。
互聯(lián)網(wǎng)用戶在嘗試使用ChatGPT 每經(jīng)記者 劉國梅 攝
日前,以ChatGPT為代表的生成式AI應(yīng)用的數(shù)據(jù)安全問題受到市場討論,也引發(fā)監(jiān)管注意。
據(jù)中國青年報此前一篇名為《ChatGPT遭多國“圍堵”》的報道指出,意大利政府宣布禁止使用ChatGPT,限制ChatGPT的開發(fā)公司OpenAI處理意大利用戶信息,并開始進行相關(guān)的立案調(diào)查。
這是全球范圍內(nèi)針對ChatGPT的第一道政府禁令。意大利的決定表明,尖端人工智能開發(fā)者面臨嚴峻的政策挑戰(zhàn)。
網(wǎng)信辦本次發(fā)布的《辦法》,對生成式人工智能的合法性以及相關(guān)法律作出了具體規(guī)定。
《辦法》提出,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人(以下稱“提供者”),需承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;應(yīng)當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責。
《辦法》要求,用于生成式人工智能產(chǎn)品的預訓練、優(yōu)化訓練數(shù)據(jù),應(yīng)滿足以下要求:
符合《中華人民共和國網(wǎng)絡(luò)安全法》等法律法規(guī)的要求;不含有侵犯知識產(chǎn)權(quán)的內(nèi)容;數(shù)據(jù)包含個人信息的,應(yīng)當征得個人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形;能夠保證數(shù)據(jù)的真實性、準確性、客觀性、多樣性;國家網(wǎng)信部門關(guān)于生成式人工智能服務(wù)的其他監(jiān)管要求。
浙江大學國際聯(lián)合商學院數(shù)字經(jīng)濟與金融創(chuàng)新研究中心聯(lián)席主任、研究員盤和林在接受《每日經(jīng)濟新聞》記者書面采訪時表示,出臺征求意見稿是針對當前社會上普遍存在的對生成式人工智能的憂慮給出了一些解決方案,此次征求意見稿對生成式人工智能的響應(yīng)領(lǐng)先全球,符合我國先規(guī)范后發(fā)展的產(chǎn)業(yè)推進路徑。
“個人認為征求意見稿解決了一些問題,諸如利用生成式人工智能進行不正當競爭等問題,的確應(yīng)該盡早規(guī)范。”盤和林告訴記者,與此同時,有些規(guī)則也需要進一步細化,比如征求意見稿提到生成式人工智能應(yīng)該提供真實準確的內(nèi)容,而現(xiàn)階段生成式人工智能存在一個特點,就是在其無法理解的時候,會采用自我生成的方式來生產(chǎn)內(nèi)容,而對于真實準確的尺度應(yīng)該如何來衡量,還需進一步細化。
他進一步表示,當前人工智能生成內(nèi)容(AIGC)已經(jīng)成為生產(chǎn)力工具,亦可能帶來新一輪科技革命,所以發(fā)展AIGC應(yīng)該是我國科技推進的重點。而制定規(guī)則,是推動我國AIGC產(chǎn)業(yè)發(fā)展的前提。
以ChatGPT為代表的生成式人工智能產(chǎn)品的爆火,其信息安全、是否侵犯用戶隱私等問題同樣受到高度關(guān)注。
《工人日報》此前報道,綠盟科技首席創(chuàng)新官劉文懋認為,在安全隱私方面,ChatGPT的高度“智能化”也導致其存在自己獨特的安全問題:提示注入。通過提示注入,用戶可以繞過OpenAI設(shè)置的內(nèi)容安全策略,從而對ChatGPT進行濫用。
他進一步表示,在輔助編程這一應(yīng)用場景上,ChatGPT的應(yīng)用可能也存在一定的安全隱患,ChatGPT生成的代碼可能含有可被利用的已知安全漏洞。對于企業(yè)來說,雖然員工使用ChatGPT能夠在一定程度上提高某些工作的效率,但由于ChatGPT并沒有通過技術(shù)手段保障用戶數(shù)據(jù)安全,且會對用戶輸入進行分析,故對于敏感信息一定要嚴格加以保護。
此次發(fā)布的《辦法》,加強了對信息安全以及用戶方面的限制。例如《辦法》提出,提供者應(yīng)當明確并公開其服務(wù)的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內(nèi)容。
提供者在提供服務(wù)過程中,對用戶的輸入信息和使用記錄承擔保護義務(wù)。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。
封面圖片來源:每經(jīng)資料圖
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP