每日經濟新聞 2023-04-11 00:03:48
每經記者 李孟林 蔡鼎 譚玉涵 每經編輯 譚玉涵 蘭素英 盧祥勇 易啟江
因強大功能而爆紅的ChatGPT正因數據隱私和安全風險在全球掀起一場監管風暴。
一周之內,意大利、德國、法國、愛爾蘭等8國相繼“出手”。此外,它還可能面臨全球首例AI誹謗訴訟。據悉,馬斯克此前發起的暫停訓練比GPT-4更強大的AI系統的公開信響應人數仍在不斷增加,截至發稿,已有超1.8萬人簽名。
意大利監管方是出于何種考慮?AI會出現意識嗎?《每日經濟新聞》記者連線愛爾蘭數據保護委員會以及中國人民大學高瓴人工智能學院教授盧志武進行解讀。
人工智能的未來,充滿巨大想象空間。圖為第六屆世界智能大會上,參會嘉賓在參觀展覽 新華社圖
8國“圍剿”ChatGPT
因強大功能而爆紅的ChatGPT正因數據隱私和安全風險在全球掀起一場監管風暴。
繼意大利宣布暫時封禁ChatGPT之后,德國也表示正在考慮暫時禁用。緊隨其后,法國、愛爾蘭、西班牙等歐洲國家的監管機構也相繼表達了類似可能性。與此同時,加拿大的隱私監管機構已經宣布對OpenAI展開調查,美國方面也在探討加強對AI的監管。不僅如此,由于生成了虛假內容,ChatGPT恐將在澳大利亞面臨全球首例誹謗訴訟。
此外,馬斯克、圖靈獎得主本吉奧等1000余名科技大佬還發表聯名公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。截至發稿,這份公開信的簽名人數已超18000人。
“我們正在關注意大利監管機構的行動,以了解其行動背后的理由。在ChatGPT這件事情上我們將和歐盟所有的數據保護機構協作。”愛爾蘭數據保護委員會(DPC)對《每日經濟新聞》記者表示。
意大利對ChatGPT的禁令,掀起了一輪針對OpenAI的監管風暴,德國監管機構已計劃跟進,表示正在考慮暫時禁用ChatGPT,緊隨其后,法國、愛爾蘭、西班牙等歐洲國家的數據監管也相繼表達了類似擔憂。
OpenAI面臨的壓力可謂與日俱增。除歐洲外,加拿大方面已經采取行動,其隱私監管機構宣布因數據違規問題對OpenAI展開調查。而在美國,拜登也會見了科技顧問,討論AI帶來的風險和機遇,并表示將加強監管。
為了打消疑慮和擔憂,OpenAI也在積極行動。當地時間4月5日晚,OpenAI CEO薩姆·阿爾特曼表示將于次日向意大利數據保護局提交相應措施。意大利數據保護局表示將評估OpenAI的方案,該機構同時強調,他們無意阻礙人工智能技術的發展。同日,OpenAI還在官網發布了題為《我們保障AI安全的方法》的文章,介紹了該公司為保障安全性在六個方面進行的部署。
但在隱私和數據安全之外,ChatGPT生成錯誤事實的“幻覺”問題也開始在現實世界中掀起波瀾。
據路透社4月5日報道,澳大利亞赫本郡市長布賴恩·胡德(Brian Hood)稱在ChatGPT生成的內容里,自己因賄賂東南亞官員而被判處30個月監禁,這與事實完全不符,但“其中有些段落卻是絕對精確的,包括數字、姓名、日期、地點等”。
胡德表示,如果OpenAI不糾正ChatGPT關于其曾因賄賂入獄服刑的虛假說法,他可能會起訴OpenAI,這將是針對生成式AI的第一起誹謗訴訟。
對于意大利暫時封禁ChatGPT的做法,中國人民大學高瓴人工智能學院教授、首個中文通用多模態預訓練模型“文瀾BriVL”的主要設計者盧志武認為這并不明智。
“一個新技術總會有好的和不好的方面,不能說因為有不好的地方就把它禁掉。汽車會造成車禍,難道就因此把汽車禁掉嗎?歐洲本來在AI方面就落后于美國,與中國也有差距,禁掉之后不是會更差么?”他對《每日經濟新聞》記者解釋稱。
“像隱私問題和AI生成內容以假亂真的問題,可以通過法律手段去約束AI模型,這樣研發者在訓練模型時就會規避這些風險。”盧志武進一步說道。
此外,法律還可以規定使用者必須對AI生成的圖片和視頻等內容進行標注,假如國家法律部門檢測到未標注的生成內容,可以采取懲罰措施。“特別是新聞相關的內容,一定不能是AI生成的,否則就亂套了,成為了假新聞。”盧志武表示。
盧志武認為,AI法律完善的目標就是讓AI的開發者和使用者都“心里有數”,但對于新生事物的法律監管有滯后性,這在AI上也不例外。
針對AI生成內容的事實錯誤問題,盧志武認為可以通過工程手段解決,比如先利用搜索引擎去搜索互聯網上的檔案性內容,然后再利用這些內容生成答案,這樣能在很大程度上消除事實性錯誤。
自我迭代更可怕?
數據安全和錯誤內容是生成式AI帶來的緊迫而現實的問題,但尚可以通過技術和法律手段加以規避。隨著AI技術的飛速發展,人類可能面臨從未遇到過的新威脅。
近日,馬斯克、圖靈獎得主本吉奧等1000余名科技大佬發表聯名公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。公開信指出,AI最終可能超越人類,使人類失去對文明的掌控能力。截至發稿,這份公開信的簽名人數已經超18000人。
盧志武對《每日經濟新聞》記者稱,這份公開信的目的是呼吁大家重視大語言模型的安全性,但實際上沒有操作性,因為沒有相應的全球權威機構出面來暫停大型AI模型的實驗。
在ChatGPT展現出強大的對話能力時,人類也越來越擔心:會不會AI系統在迅速進化的過程中“涌現”出自我意識?
“未來有沒有我不敢說,但至少從GPT-4來看,它是不會產生意識的。”盧志武對記者表示。“但我們開發AI的終極目標是實現AGI(通用人工智能),就是讓AI模型表現得像人一樣。如果要達到這個目標,那么這個過程中真的有可能失控。”
在盧志武看來,所謂的失控并不是AI出現意識,而是AI學會了自我迭代。“AI模型自己不停地學習,甚至創造出新的東西來,而這個過程又在人類的監控之外。這種自我學習是非常容易實現的,我覺得這才是AI最大的威脅。”
近日,研究人員Noah Shinn和Ashwin Gopinath在預印本網站arxiv提交論文稱,通過引入“反思”技術,GPT-4在多項高難度測試中的表現提升了30%。據悉,這種技術讓AI系統模仿人類的自我反思,并評估自己的表現,“GPT-4在完成各種測試的時候,會增加一些額外的步驟,讓它能夠自己設計測試來檢查自己的答案,找出錯誤和不足之處,然后根據發現來修改自己的解決方案。”
盧志武認為,AI學會自我迭代所產生的后果難以具體想象,但如果一個東西在不停地變強而人類卻不知道,這是“最可怕的”。未來,假如AI模型和機器人進行結合,則AI就可以產生動作,“你都不知道它是不是會拿起槍來做什么事情”。
而實際上,科學家已經在探索如何將生成式AI與機器人相結合。微軟的科學家2月份發布論文稱,他們正在研究利用ChatGPT來操控機器人,以實現以自然語言與機器人交互的目的,并展示了無人機和機械臂的操作案例。
封面圖片來源:新華社
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP