每日經(jīng)濟(jì)新聞 2024-06-07 18:27:28
每經(jīng)編輯 張錦河
開欄語:《AIGC行業(yè)周報》梳理AIGC行業(yè)一周內(nèi)發(fā)生的重要動態(tài),產(chǎn)品發(fā)布和業(yè)內(nèi)大咖的最新觀點(diǎn)。
圖片來源:每經(jīng)制圖
(一)OpenAI公開前沿大模型安全策略細(xì)節(jié)
6月6日凌晨,OpenAI首次系統(tǒng)性地公開了其前沿大模型的安全策略,包括基礎(chǔ)架構(gòu)、保護(hù)措施、敏感數(shù)據(jù)存儲和開發(fā)人員訪問管理等高級細(xì)節(jié)。這些信息不僅展示了OpenAI模型的開發(fā)流程,也為開發(fā)者研究前沿大模型提供了技術(shù)參考。同時,OpenAI近期頻繁發(fā)布關(guān)于AI模型安全的介紹,反映出其面臨的安全壓力。此外,11名OpenAI的現(xiàn)役和前員工發(fā)布了公開信,警告前沿AI模型可能帶來的風(fēng)險,并呼吁制定安全、可持續(xù)的監(jiān)督條例和規(guī)則。
(二)斯坦福Llama3-V項目被指抄襲清華MiniCPM-Llama3-V 2.5,引發(fā)開源社區(qū)質(zhì)疑
近日,斯坦福大學(xué)的研究團(tuán)隊發(fā)布了Llama3-V項目,宣稱僅需500美元就能訓(xùn)練出一個與GPT4-V等性能相當(dāng)?shù)亩嗄B(tài)模型。然而,項目很快受到社區(qū)的質(zhì)疑,被指控抄襲了清華大學(xué)與面壁智能合作開發(fā)的MiniCPM-Llama3-V 2.5模型。面對抄襲指控,Llama3-V的GitHub倉庫和HuggingFace頁面被刪除,作者之一也對使用MiniCPM-Llama3-V 2.5的tokenizer進(jìn)行了回應(yīng),但社區(qū)成員通過對比分析發(fā)現(xiàn)了更多代碼和架構(gòu)上的相似之處,指出Llama3-V作者可能并不完全理解自己所使用的代碼。盡管Llama3-V項目試圖通過刪除項目頁面來應(yīng)對質(zhì)疑,但社區(qū)成員已經(jīng)保存了相關(guān)證據(jù),并呼吁斯坦福大學(xué)介入調(diào)查這一可能的學(xué)術(shù)不端行為。
(三)OpenAI和Google員工聯(lián)名警告AI風(fēng)險,獲“深度學(xué)習(xí)之父”支持
近日,來自O(shè)penAI和Google DeepMind的數(shù)名現(xiàn)任和前任員工發(fā)表了一封公開信,警告人工智能發(fā)展可能帶來的風(fēng)險,包括社會不平等加劇、錯誤信息傳播和自主AI系統(tǒng)失控等。公開信強(qiáng)調(diào),盡管全球政府和AI專家已意識到這些風(fēng)險,但追求財務(wù)利益的AI公司往往抵制有效監(jiān)督,現(xiàn)有企業(yè)治理結(jié)構(gòu)不足以應(yīng)對挑戰(zhàn)。信中呼吁AI企業(yè)遵循不簽訂禁止負(fù)面評價的協(xié)議、建立匿名反饋機(jī)制等原則。這封公開信得到了“AI教父”Geoffrey Hinton、圖靈獎得主Yoshua Bengio以及AI安全領(lǐng)域頂級學(xué)者Stuart Russell的支持。
(一)英偉達(dá)發(fā)布Blackwell GPU,推進(jìn)AI帝國建設(shè)并解決全球耗電難題
6月3日凌晨,英偉達(dá)CEO黃仁勛(老黃)宣布了一系列技術(shù)創(chuàng)新和產(chǎn)品迭代,包括已經(jīng)量產(chǎn)的Blackwell GPU,這款迄今為止最大的芯片將在未來8年內(nèi)將1.8萬億參數(shù)GPT-4的訓(xùn)練能耗降低至原來的1/350。Blackwell GPU的推出,連同其后三代的路線圖,標(biāo)志著英偉達(dá)在AI領(lǐng)域的雄心和實力。黃仁勛還展示了英偉達(dá)在加速計算、AI工廠、數(shù)字人、智能體等領(lǐng)域的進(jìn)展,并預(yù)告了下一代芯片Rubin。此外,英偉達(dá)還發(fā)布了數(shù)字孿生地球「Earth-2」項目,旨在通過高解析度的模擬預(yù)測全球氣候變化,推動物理AI和具身AI的發(fā)展,為未來的AI機(jī)器人時代鋪路。
(二)國產(chǎn)AI視頻生成模型「可靈」開放測試,展現(xiàn)高真實度和物理規(guī)律模擬能力
近日,快手推出了名為「可靈」的國產(chǎn)AI視頻生成大模型,該模型基于Sora技術(shù)路線并結(jié)合自研創(chuàng)新,能夠生成長達(dá)2分鐘、1080p分辨率的超長視頻。可靈不僅在運(yùn)動模擬上表現(xiàn)出色,還能準(zhǔn)確刻畫復(fù)雜運(yùn)動并符合物理規(guī)律,如重力和光學(xué)反射。此外,它還支持自由寬高比,與快手的短視頻生態(tài)高度匹配。目前,可靈已在快影APP中開放測試,標(biāo)志著快手在短視頻領(lǐng)域的AI應(yīng)用邁出了重要一步。
(三)Meta AI模型NLLB200在Nature發(fā)表,翻譯質(zhì)量提升44%
6月6日,Meta公司在《自然》雜志上發(fā)表了關(guān)于其最新AI模型No Language Left Behind (NLLB)的研究文章,該模型能夠支持200種語言之間的高質(zhì)量翻譯,特別強(qiáng)調(diào)了對低資源語言的翻譯能力。NLLB-200模型通過采用稀疏門控專家混合架構(gòu),實現(xiàn)了高效的參數(shù)利用和計算資源分配,顯著提升了翻譯質(zhì)量,平均翻譯質(zhì)量提升了44%。此外,NLLB項目還包括了數(shù)據(jù)挖掘與預(yù)處理的創(chuàng)新方法,多語言訓(xùn)練策略,以及綜合評估工具的開發(fā),確保翻譯結(jié)果的安全性和可靠性。
(四)Stable Diffusion 3 Medium模型將于6月12日開源,優(yōu)化多方面性能
6月3日晚,Stability AI的聯(lián)合首席執(zhí)行官Christian Laforte在AMD產(chǎn)品發(fā)布會上宣布,備受期待的文本到圖像生成模型Stable Diffusion 3的Medium版本,具有20億參數(shù),將在6月12日通過Hugging Face平臺開源。該模型在照片真實感、樣式、圖片質(zhì)量以及資源消耗等方面進(jìn)行了顯著優(yōu)化,提供了與閉源產(chǎn)品Midjourney、DALL·E 3相媲美的性能。盡管之前Stability AI經(jīng)歷了管理層變動和財務(wù)危機(jī),但公司不僅穩(wěn)定了局面,還可能獲得了AMD的贊助。Stable Diffusion 3采用了Diffusion Transformer架構(gòu),有效提升了文本語義理解、文字嵌入和圖像樣式的表現(xiàn),目前該模型限于學(xué)術(shù)研究使用,商業(yè)化使用需聯(lián)系Stability AI。
(五)昆侖萬維開源2000億參數(shù)稀疏大模型Skywork-MoE,支持單GPU推理
6月3日,昆侖萬維公司宣布開源其2000億參數(shù)的稀疏大模型Skywork-MoE,該模型在保持高性能的同時大幅降低了推理成本。Skywork-MoE是基于之前開源的Skywork-13B模型擴(kuò)展而來,是首個完整應(yīng)用MoE Upcycling技術(shù)并落地的千億級MoE大模型,也是首個支持使用單個4090 GPU進(jìn)行推理的開源模型。模型權(quán)重、技術(shù)報告完全開源,免費(fèi)商用,無需申請。Skywork-MoE在8x4090服務(wù)器上通過FP8量化和非均勻Tensor Parallel并行推理方式,能夠達(dá)到2200 tokens/s的吞吐量。該模型還引入了Gating Logits歸一化操作和自適應(yīng)的Aux Loss訓(xùn)練優(yōu)化算法,提升了模型性能和泛化水平。此外,Skywork-MoE展示了在不同訓(xùn)練階段如何通過調(diào)整auxiliary loss系數(shù)來控制Drop Token Rate,以及如何通過Expert Data Parallel和非均勻切分流水并行技術(shù)提高大規(guī)模分布式訓(xùn)練的效率。
(六)智譜AI發(fā)布開源GLM-4系列大模型,引領(lǐng)MaaS平臺升級與行業(yè)生態(tài)發(fā)展
6月5日,智譜AI在其開放日上宣布了GLM-4系列大模型的最新開源版本,包括性能超越Llama 3 8B的GLM-4-9B和多模態(tài)能力比肩GPT-4V的GLM-4V-9B,同時大幅降低了大模型服務(wù)的成本,以6分錢/100萬Token的價格提供服務(wù)。智譜AI的MaaS(Model as a Service)平臺升級至2.0版本,提供更高效的模型微調(diào)平臺和簡化的私有模型部署流程。公司CEO張鵬強(qiáng)調(diào)了通過技術(shù)創(chuàng)新實現(xiàn)應(yīng)用成本降低和客戶價值提升的商業(yè)策略,并展示了智譜AI在大模型技術(shù)、生態(tài)建設(shè)和AI安全標(biāo)準(zhǔn)制定方面的領(lǐng)導(dǎo)地位。此外,智譜AI的開源模型累計下載量達(dá)到1600萬次,顯示了其在AI技術(shù)領(lǐng)域的廣泛影響力。
(一)英偉達(dá)Jim Fan認(rèn)為具身智能的關(guān)鍵在于開發(fā)「Foundation Agent」
近日,英偉達(dá)高級研究科學(xué)家Jim Fan在GenAI峰會上探討了具身智能的挑戰(zhàn)與發(fā)展,認(rèn)為難點(diǎn)不在于硬件,而在于開發(fā)「Foundation Agent」——一種能夠?qū)崿F(xiàn)具身性、現(xiàn)實交互和技能掌握的通用算法。他分享了英偉達(dá)在Minecraft AI研究、Metamorph多形態(tài)機(jī)器人控制、Eureka自動獎勵函數(shù)設(shè)計等方面的最新進(jìn)展,并強(qiáng)調(diào)了域隨機(jī)化技術(shù)在將模擬環(huán)境訓(xùn)練的模型泛化到現(xiàn)實世界中的應(yīng)用。Jim Fan預(yù)測,隨著技術(shù)進(jìn)步,仿人機(jī)器人的成本將大幅下降,而人工智能的發(fā)展將是推動具身智能發(fā)展的關(guān)鍵因素。
(二)報告:生成式AI應(yīng)用激增,亞太成增長最快區(qū)域
近日,全球咨詢公司麥肯錫發(fā)布的最新調(diào)查報告指出,生成式AI技術(shù)如ChatGPT和Copilot等的應(yīng)用在2024年顯著增長,65%的受訪管理者已經(jīng)在業(yè)務(wù)中使用該技術(shù),相比2023年的33%幾乎增長了兩倍。報告特別強(qiáng)調(diào),亞太地區(qū)是應(yīng)用生成式AI增長最快的區(qū)域,這主要得益于技術(shù)環(huán)境和原生數(shù)字人口的優(yōu)勢。應(yīng)用場景主要集中在營銷銷售、產(chǎn)品服務(wù)開發(fā)以及IT領(lǐng)域。企業(yè)采用生成式AI的方式多樣,包括使用現(xiàn)成產(chǎn)品、合作微調(diào)模型和自主開發(fā)。麥肯錫認(rèn)為,2024年是生成式AI實現(xiàn)場景化落地并產(chǎn)生商業(yè)價值的一年。
來源:每經(jīng)科技提供
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP