亚洲永久免费/亚洲大片在线观看/91综合网/国产精品长腿丝袜第一页

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

云服務“奇點”來臨:火山引擎能借大模型“彎道超車”嗎?

每日經濟新聞 2023-04-19 21:57:42

◎服務于大模型廠商,將是未來火山引擎的重要業務之一。火山引擎目前在通過減少資源損耗提升現有資源效率。比起通用大模型,它更聚焦于垂直領域中參與大模型廠商的業務需求。

每經記者 王紫薇    每經編輯 劉雪梅    

眼下AI大模型技術應用吹起來的風口,國內云市場的“后來者”火山引擎不想錯過。

4月18日,火山引擎在“原動力大會”上發布了自研DPU等系列云產品,并推出新版機器學習平臺。

基于火山引擎的自身判斷——多云多模型架構將成為主流,這個學習平臺與眼下chatGPT引發的“大模型熱”頗為契合,而火山引擎恰能提升大模型訓練的穩定性與訓練速度。

這些動作不僅是火山引擎自身敏捷迭代的一部分,也是面向大模型風口,火山引擎搶占先機之舉。火山引擎總裁譚待接受《每日經濟新聞》記者采訪時表示,服務于大模型廠商,將是未來火山引擎的重要業務之一。

AI大模型的“命門”在于算力。譚待接受記者采訪時表示,火山引擎目前的芯片“夠用”,同時還在通過減少資源損耗提升現有資源效率。

自研DPU是火山引擎“敏捷迭代”的一部分,也是提升資源效率的方式之一。

自研DPU是火山引擎“敏捷迭代”的一部分 圖片來源:每經記者 王紫薇 攝

字節跳動副總裁楊震原接受《每日經濟新聞》記者采訪時表示,自研DPU讓火山引擎可以在不同事物、不同場景下選擇更優、更節省算力的技術設計方案。簡而言之,DPU不產生算力,但可以給出算力分配的更優解。

此外,火山引擎還宣布與字節跳動國內業務并池,以便提升資源的利用。記者了解到,火山引擎將把抖音等業務的空閑計算資源調度給火山引擎客戶使用,其中離線業務資源分鐘級調度10萬核CPU,在線業務資源可潮汐復用。

火山引擎于2020年正式上線,目前剛剛3歲。在升級為字節六大核心板塊之一后,火山引擎商業化步子走得很快,一年多時間內,就先后宣布進軍IaaS服務、發布全系列云產品、推出覆蓋金融等六大行業的云上增長方案。

此次,火山引擎迎頭趕上大模型風口,并宣布現階段主要為為大模型廠商提供服務,在大模型成熟后將深度合作,提供AI應用,其自身并不推出大模型產品。

To B領域,先手優勢巨大。此次大模型的爆發被看作云服務商的增長新機遇。火山引擎,能借此彎道超車嗎?

并池提效

敏捷迭代,數據驅動、體驗創新一直是火山引擎強調的“底盤三要素”。在這次會上,敏捷迭代成了譚待強調的重點。他認為,企業數字化革新的浪潮隨著大模型面世,已經從上云、用云,到了云上創新時代。

譚待認為,用云不是最終目標,在云上致力于更敏捷、更前沿的場景化創新才是敏捷迭代的果實。

總結來說,敏捷迭代包括了云IaaS、PaaS能力,特別是多云、分布式云,以及怎樣管理好在多云上的負載。

首先,火山引擎選擇與字節國內業務大規模“并池”。

楊震原在會后的采訪中表示,并池的“池”,是計算池,包括計算、存儲、服務器、容器這樣的單元;并池之后,意味著火山引擎與字節的內外服務可以在共享資源池里去調度,字節內部服務也上到云服務上面來。這樣做的好處是,可以提高整體資源利用率。

“資源的混合分布能夠更好地降低云計算的成本。比如,抖音在火山引擎上使用資源調度有波峰和波谷,這種資源就很適合科學計算的能力。”楊震原說。

目前那些迫切希望入局大模型的廠商們,最亟需的需求之一就是算力。算力的獲取可以向云服務商購買,也可以從高端芯片中獲取,后一方式對廠商來說參與成本更高,而機器學習既復雜又貴——復雜在于硬件、系統、框架、平臺都必須要做對,而無論是硬件、數據、還是人力,都很貴。

因此,選擇與云服務商合作是目前的主流方式。

楊震原在會上分享了抖音推薦系統的機器學習實踐:工程師用15個月的樣本訓練,某個模型5小時就能完成訓練,成本只有5000元。火爆全網的抖音“AI繪畫”特效,從啟動到上線只用了一周多時間,模型由一名算法工程師完成訓練。

自研DPU

在敏捷迭代部分,譚待還強調了全棧自研,并在會上發布的基于自研DPU的彈性計算實例、對象存儲升級,云數據庫升級,函數服務等產品。

譚待表示,大模型需要大算力,虛擬化會帶來資源損耗,規模越大就損耗越多。目前談及AI很多是代表的是GPU,而不是CPU異構計算的負載。這部分的負載占比會越來越大。“以前可能GPU:CPU是1:10或1:9,未來這個占比會越來越高。對于火山引擎來說,這部分肯定是重點關注的方向之一。”譚待說。

而DPU的作用是,把計算機網絡協議用專用芯片、專用組件卸載掉,這樣就能把CPU和GPU釋放出來,放到更關鍵的業務中去。譚待說,火山引擎自研了DPU,“因為這是值得優化的最大的問題。虛擬化占到成本的10%—20%。”

“對于云來說,這是持續降低成本的一個非常重要的方式,對于客戶來說,他也能享受到降低成本帶來的好處。”譚待說。

譚待認為,在未來三年內,大規模的算力中心將形成‘CPU+GPU+DPU’的混合算力結構。其中,CPU負責通用計算,GPU負責AI計算,DPU負責資源卸載、加速和隔離,提升資源效率。

除了敏捷迭代之外,在數據驅動、體驗創新部分,譚待表示,提升數據消費的一部分是構建數據應用能力,這其中包含AB測試、CDP、GMP等應用;另一部分是構建數據平臺的閉環,包括大數據的組件。

體驗創新則是通過更好的互動技術打造視頻、游戲的升級體驗。其中,更高清、更沉浸、更互動是消費者視頻體驗提升的三個關鍵方向。譚待表示,體驗創新既要關注外部對用戶的創新,也要關注內部運營、內部員工的體驗,包括未來企業越來越多采用混合辦公模式之后,如何構建相應的IT基礎設施。

服務大模型能否彎道超車?

大模型的熱度不減。IDC在《2022中國大模型發展白皮書》中預測,2026年中國人工智能軟件及應用市場規模將達到211億美元,未來各行各業都會被AI所推進。大模型的投資熱度也因此不斷升溫,字節跳動、百度、阿里巴巴、華為、商湯等企業都宣布了相關產品和投資。

從數字化變革,到智能化,云服務的賽道變寬,玩家也在“軍備競賽”。百度“百度人工智能體系”于2020年提出。今年3月27日,百度“文心一言”云服務上線;不久在阿里云峰會上,宣布阿里巴巴所有產品都將接入“通義千問”大模型。在此之前,阿里云已在與達摩院逐步融合。

譚待認為,大模型將帶動云上AI算力激增,AI算力的工作負載與通用算力的差距會越來越小,這會為各家云廠商帶來新的機會,同時也會對數據中心、軟硬件棧、PaaS平臺帶來新的挑戰。

從此次發布會來看,比起通用大模型,火山引擎更聚焦于垂直領域中參與大模型廠商的業務需求。

比如在智能駕駛領域,火山引擎與智能駕駛服務商、造車新勢力、主機廠合作,推動各方在公有云大算力中心進行更靈活、更大規模的智能駕駛訓練;在生物科技領域,火山引擎進行了生信PaaS—BioOS探索,推動生信科研創新的基礎設施統一、數據存儲統一、開發模式統一,降低創新成本。

譚待告訴《每日經濟新聞》記者,“ChatGPT讓大家關注到了大語言模型,其實視覺、圖象、語音,包括自動駕駛等垂直領域序列,將來也可以構建出circles模型。對火山引擎來說,這(些業務)肯定是將來很重要的不斷增長的負載來源,是火山引擎的重要方向之一。”

CIC灼識咨詢經理陳一心向每經記者表示,使模型在應用中更加切中企業經營重點,同時借此將模型的規模與TCO合理化,提升性價比、控制成本,進而普及大規模B端應用,這將是未來的發展方向之一。

當然,大模型的發展機遇與挑戰并存。行業認為,大模型在發展過程中仍存在多個關鍵問題,譚待對此表示,目前其發展還在初期,并面臨數據安全、內容安全、隱私保護、版權保護等許多問題需要努力解決。

“大模型百花齊放,將深刻改變人與人、人與機器的協作方式,對內容生產、辦公協作、商業、教育、傳媒等不同領域產生影響。未來將是多云多模型的時代。”譚待說。

封面圖片來源:每經記者 王紫薇 攝

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0