每日經(jīng)濟新聞 2024-09-03 16:34:13
◎圖靈獎獲得者、被稱為“AI教父”的加拿大計算機科學(xué)家Yoshua Bengio在接受《每日經(jīng)濟新聞》記者采訪時表示,從更高的角度看,要確保AI系統(tǒng)的安全開發(fā)和部署,全球需要解決兩個挑戰(zhàn),一個是技術(shù)層面的,另一個是政治層面。
每經(jīng)記者 鄭雨航 每經(jīng)實習(xí)記者 岳楚鵬 每經(jīng)編輯 蘭素英
如今,人工智能(AI)浪潮正以前所未有的速度重塑世界,隨之而來的安全和倫理問題也日益受到關(guān)注,如何平衡創(chuàng)新與風險成為了業(yè)內(nèi)關(guān)注的焦點。
8月底,AI巨頭OpenAI和Anthropic與美國AI安全研究所(AI Safety Institute)達成了一項歷史性協(xié)議,允許美國政府在其發(fā)布全新的重要AI模型之前先進行嚴格的安全測試。美國AI安全研究所是在拜登政府去年10月發(fā)布的首個AI行政命令下成立的,旨在通過新的安全評估、制定公平和公民權(quán)利指導(dǎo)方針,以及研究AI對勞動力市場的影響,來管理AI的未來發(fā)展。
OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)稱,這一協(xié)議的達成是“歷史性的重要一步”,體現(xiàn)了行業(yè)對安全性和負責任創(chuàng)新的承諾。美國AI安全研究所所長伊麗莎白·凱利(Elizabeth Kelly)表示,這只是一個起點,但卻是負責任地管理AI未來的重要里程碑。
針對這兩家領(lǐng)先的AI初創(chuàng)公司所達成的協(xié)議以及AI領(lǐng)域的安全和未來發(fā)展問題,《每日經(jīng)濟新聞》記者專訪了圖靈獎獲得者、被稱為“AI教父”的加拿大計算機科學(xué)家Yoshua Bengio,進行深入解讀。
Yoshua Bengio是深度學(xué)習(xí)領(lǐng)域的先驅(qū)之一,與Geoffrey Hinton和Yann LeCun共同獲得了2018年的圖靈獎,被業(yè)界譽為“深度學(xué)習(xí)三巨頭”。Bengio不僅對前沿技術(shù)有著深刻的理解,更對AI的發(fā)展方向、潛在風險以及社會影響有著獨到的見解。2023年8月,Bengio被任命為聯(lián)合國技術(shù)進步科學(xué)顧問委員會成員并擔任加拿大高級研究院(CIFAR)AI主席。2024年,Bengio入選《時代》雜志全球100位最具影響力人物年度榜單。
圖片來源:Yoshua Bengio個人網(wǎng)站
NBD:您如何看待最近OpenAI和Anthropic與美國AI安全研究所的合作?這是否會成為AI治理方面的一種更廣泛趨勢?
Bengio:除OpenAI和Anthropic外,還有其他公司已經(jīng)承諾與英國政府的AI安全研究所私下分享他們的最新模型??紤]到OpenAI和Anthropic都是美國公司,他們對美國政府采取同樣的做法也是理所應(yīng)當?shù)摹?/strong>
NBD:要確保AI系統(tǒng)的安全開發(fā)和部署,尤其是在企業(yè)和政府合作的情況下,您認為需要解決哪些最關(guān)鍵的挑戰(zhàn)?
Bengio:站在更高的角度看,我們需要解決兩個挑戰(zhàn)。
首先是技術(shù)層面,我們需要開發(fā)能夠在AGI(通用人工智能,相當于普通人類水平)或ASI(超級人工智能,即超越人類水平)階段仍然有效的安全技術(shù),包括對危險能力的評估、檢測和緩解,以及設(shè)計可控且保證安全的AI系統(tǒng)。
其次是政治層面,我們需要全球范圍內(nèi)的協(xié)調(diào),以確保所有國家和公司在開發(fā)最強大的AI系統(tǒng)時,遵循最佳的安全實踐,避免人類失去控制的災(zāi)難性后果。并且,要達成最佳的安全和治理協(xié)議,以確保某些人不會濫用AGI的力量為自己謀利,而犧牲其他許多人的利益。
NBD:不同地區(qū)在監(jiān)管方式上也會有所不同,在您看來,促進AI治理國際合作的最有效方法是什么?
Bengio:國際協(xié)調(diào)對于避免未來幾年或幾十年人類可能面臨的兩種最危險情況至關(guān)重要:一是權(quán)力集中于少數(shù)人手中,他們將通過控制ASI來控制全人類;二是人類失去對ASI的控制,而ASI的目標是自我保護(這可能與人類目標相沖突并導(dǎo)致人類滅絕),從而危及人類的生存。
為了避免這些情況,必須讓世界各地的更多人和政府了解這些風險。我們需要類似于核武器(監(jiān)管)條約的國際條約。而考慮到各國/地區(qū)之間的軍事和地緣政治競爭,必須要有足夠的驗證技術(shù)(來證明其危險),促進條約的有效實施,我認為只要專注這方面的發(fā)展,這是幾年內(nèi)是可以實現(xiàn)的。
NBD:您如何看待學(xué)術(shù)研究對AI治理行業(yè)的影響或指導(dǎo)作用?可以采取哪些措施來加強研究與實際實施之間的聯(lián)系?
Bengio:在AI安全方面,企業(yè)之間存在著內(nèi)在的利益沖突。它們之間競爭激烈,為了生存,它們不得不在安全方面偷工減料,以犧牲公共安全為代價,在商業(yè)上取得領(lǐng)先地位。它們有動機隱瞞風險和事故,并拒絕監(jiān)管。因此,必須有一大批獨立學(xué)者參與AI安全研究以及前沿AI系統(tǒng)的評估和審計。
NBD:展望未來,在技術(shù)快速進步的背景下,您認為有哪些額外的研究或舉措可以進一步推進AI的安全和治理?
Bengio:在科學(xué)技術(shù)層面上,我們需要更好的風險評估方法。例如,能力評估,可以檢測前沿人工智能的潛在危險;更好的AI設(shè)計方法可以為我們提供一些定量的安全保證(目前我們還沒有);建立硬件化的AI芯片使用跟蹤、許可和驗證機制,支持國際條約驗證。
在治理和政治層面上,全球需要提高對AI風險的認識,尤其是對災(zāi)難性風險的認識。應(yīng)對這些風險的措施應(yīng)讓每個國家的每個人都團結(jié)起來,因為我們都是人類,大多數(shù)人都希望看到自己的孩子過上好日子,人類繼續(xù)繁榮昌盛。
另外,全球需要對開發(fā)最強大AI系統(tǒng)的AI實驗室進行國家監(jiān)管,引入有關(guān)其AI安全計劃、工作和事故報告(包括舉報人保護)透明度,以及遵守國家和國際AI安全標準的激勵措施。
加利福尼亞州提出的SB-1047法案就是一個很好的例子。(注:該法案要求訓(xùn)練模型的公司在部署超過一億美元成本的大型模型前,進行風險評估。Bengio等一群在計算機領(lǐng)域聲名顯赫的功勛學(xué)者教授們在8月時曾聯(lián)名簽署公開信,對此表示支持。他們聲稱這項立法是“有效監(jiān)管這項技術(shù)的最低標準”。)
NBD:您剛才提到國際條約,能再具體介紹一下嗎?
Bengio:關(guān)于AGI發(fā)展的國際條約,應(yīng)該包括幾個關(guān)鍵方面。
首先,各國需要強制執(zhí)行國家層面的監(jiān)管,盡管各國的具體監(jiān)管方式可能有所不同,但所有措施都必須以保護公眾和全人類免受災(zāi)難性風險為基礎(chǔ)。
其次,這些條約還應(yīng)促進全球范圍內(nèi)的財富重新分配,以確保AGI所創(chuàng)造的財富能夠惠及各國,特別是低收入和中等收入國家,從而激勵它們加入并遵守條約。
與此同時,各國應(yīng)在AI安全標準和研發(fā)方面加強國際合作,以統(tǒng)一和提升全球AI安全水平。
最后,這些條約還應(yīng)允許像聯(lián)合國這樣的中立全球機構(gòu)通過遠程跟蹤和驗證技術(shù),對與全球災(zāi)難性風險相關(guān)的條約執(zhí)行情況進行監(jiān)督和核實,以確保全球合作的有效性和公正性。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP