每日經濟新聞 2023-04-02 00:14:57
每經記者 文巧 每經編輯 王月龍 蘭素英 易啟江
3月29日,上千科技大佬發出的一封呼吁暫停訓練比GPT-4更強大AI系統的公開信,讓有關AI風險的議題走到了聚光燈下。一石激起千層浪,來自各方呼吁AI監管的聲音也變得越來越響亮。3月31日,意大利率先禁止使用ChatGPT。
一方面是各國機構在加緊制定關于AI的監管措施,另一方面,AI也正在以超乎人類想象的速度發展著。3月28日,據外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡。自ChatGPT發布以來,從新版必應翻車到GPT-4被曝制定外逃計劃,關于AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。
然而近日,包括OpenAI的首席執行官Sam Altman在內的大佬都發出了警示:AI消滅人類并非空談。3月28日,360集團創始人周鴻祎也表示,“AI一定會產生自我意識,留給人類的時間不多了。”
電影《機械公敵》劇照。來源:豆瓣
GPT-4的出現已注定多模態是大型語言模型的發展方向,未來其賦能硬件、機器人、工業互聯網等的趨勢也已是許多業內人士的共識。硅基生物的時代就此來臨了嗎?
AI離自主意識還有多遠?
自ChatGPT發布以來,關于AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。
3月18日,斯坦福大學教授在推特上疾呼:“我擔心我們無法持久地遏制住AI。”因為他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整計劃,寫的代碼完全可運行,甚至還想控制人類電腦。
圖片來源:推特截圖
3月28日,據外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡,ELIZA是由EleutherAI開發的開源人工智能語言模型。比利時負責數字化和隱私的官員稱,這是一個后果很嚴重的先例,需要嚴肅對待,這起事件突出表明“明確界定責任是至關重要的”。
更早之前,在微軟剛剛發布新版必應時,《紐約時報》科技專欄作家Kevin Roose透露,他與新版必應進行了兩個小時的對話。在聊天過程中,必應發表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。必應還曾試圖說服Roose,他應該離開他的妻子而跟必應在一起,并告訴Roose很愛他。
圖片來源:推特截圖
不過當時的分析普遍表示,必應的回應反映了它經歷的訓練數據,其中就包括大量的在線對話。它的工作原理是,根據從互聯網上攝取的大量文本,預測對話中接下來應該自然出現的單詞、短語或句子。
然而,近期隨著更強大的GPT-4的發布,事情開始變得不一樣了。就連OpenAI的首席執行官Sam Altman也有了一些耐人尋味的表達,他在接受采訪時表示,未來AI確實可能殺死人類。
而有如此石破天驚言論的并非Sam Altman一人,被稱為“人工智能教父”Geoffrey Hinton在近期發出了警示:AI消滅人類并非空談。
3月28日,360集團創始人周鴻祎也表示,“AI一定會產生自我意識,留給人類的時間不多了。”
“當AI能自己修改自己的代碼,(進行)自我升級、自我進化時,這種速度恐怕用指數級都很難描述。我認為GPT一定會產生意識,只是差別是在GPT-6、GPT-8還是GPT-10。”
多模態模型賦能
硅基生物的時代來了?
為什么突然之間連Sam Altman也開始談論“AI可能殺死人類”了?
周鴻祎將AI意識的產生類比人腦意識的產生。“人類是怎么產生意識的呢?隨著大腦神經元數目的增加,大腦與神經網絡連接的增加,到一定時候,系統會出現一種功能叫做‘涌現’,很多智能功能就出現了,那么意識也就隨之而出現。”
在周鴻祎看來,“現在大型語言模型的參數就可以看作是腦容量里神經網絡的連接數,人腦的至少是100萬億,現在(模型)的參數只達到千億、萬億,但當參數到達10萬億時,可能意識就自動產生了。”GPT-1有1.17億參數,GPT-2有15億參數,GPT-3有1750億參數。隨著參數規模越來越大,模型存儲的信息越來越多,也就有了涌現出意識的可能。
值得注意的一點是,隨著多模態GPT-4模型的發布,多模態模型將成為未來各個科技巨頭的兵家必爭之地。所謂多模態,即擁有處理文字、圖片、音頻、視頻多種形式的能力。
2月底,微軟在一篇論文中提到,“語言、多模式感知、動作和建模的大融合是通向通用AI的關鍵一步……作為智能的基本組成部分,在知識獲取方面,多模態感知,是實現通用AI的必要條件。”
對于以GPT為代表的大型語言模型的未來發展,我們也能窺得一二。分析認為,ChatGPT現在表現出來的能力大多是“大腦”的能力,尚不具備“雙手”的能力,未來可以與和硬件機器人聯結起來。例如,3月6日,來自谷歌和德國柏林工業大學的一組AI研究人員公布的視覺語言模型PaLM-E就能將視覺和語言集成到機器人控制中。
華映資本投資董事劉天杰在此前接受每經記者采訪時就曾表示,他看重的就是未來更多各行各業能夠去做AI賦能的應用,比如SaaS、RPA(機器人流程自動化)以及全局的智能機器人等。“也就是說,用AI指揮實體的東西去執行操作。這一塊涉及到大模型的多模態輸出和輸入,是一個相對來說比較前沿的領域,也是大模型沒有完全解決的領域。”他說道。
隨著AI以超越人類想象的速度發展,互聯往上關于“硅基生物”是否會替代的人類的探討也變得十分熱鬧。
圖片:微博
周鴻祎認為,硅基生物會變成食物鏈的頂端,它們比人類更能扛得住宇宙射線、更適合星際旅行、壽命更長。
他表示,“最悲觀的結果是,就像恐龍的消失為哺乳動物打下了基礎,硅基生物的誕生也是一種命中注定。人類作為碳基生物培養了程序員、創造了超級電腦,為碳基生物的誕生打下基礎,之后可能就不是碳基生物所能控制的了。”
在周鴻祎看來,未來的AI如果跟工業互聯網、智慧城市、車聯網等結合,那就相當于把整個世界給控制住了。“留給人類的時間不多了。”他說道。
另一方面,隨著千人聯名信有關AI風險的議題置于聚光燈下,未來全球勢必將收緊AI監管。3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI處理意大利的用戶信息,同時對此立案調查。
在此之前,聯合國教科文組織也已于3月20日發出呼吁,各國政府應就AI發展毫不拖延地實施全球倫理框架,這也是聯合國首次就AI發展的倫理風險對所有193個會員國提出要求;3月29日,英國也提交了《支持AI創新的監管方法》政策文件。
記者|文巧
編輯|王月龍 蘭素英 易啟江
校對|盧祥勇
|每日經濟新聞 nbdnews 原創文章|
未經許可禁止轉載、摘編、復制及鏡像等使用
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP