騰訊無需英偉達最先進芯片即可提高AI訓練效率
在技術自力更生背景下,中國科技巨頭正在尋求基于現有系統和設備來提升大型語言模型 (LLM)訓練的方法,騰訊已升級其高性能計算(HPC)網絡,提升其人工智能(AI)能力。
騰訊云計算部門周一表示,騰訊智能高性能網絡(中文名為星脈)2.0 版本將使網絡通信和LLM培訓的效率分別提高60%和20%。
由于美國出口規則嚴格,英偉達先進芯片供應受限,而騰訊星脈此次性能提升正是在此背景下實現的。騰訊通過優化現有設施實現了性能提升,而不是試圖在支出和尖端半導體方面與 OpenAI等美國競爭對手正面競爭。
HPC網絡連接強大的圖形處理單元(GPU)集群,以極高的速度處理數據和解決問題。
騰訊稱,在現有HPC網絡技術下,計算集群花費了太多時間與其他集群進行通信,導致相當一部分GPU容量處于閑置狀態。因此,公司升級了網絡,以加快通信過程并降低成本。
騰訊介紹,騰訊星脈網絡可以支持擁有超過100000個GPU的單個計算集群,規模是2023年發布的網絡初始版本的兩倍。騰訊表示,性能的提升將識別問題所需的時間從之前的幾天縮短到幾分鐘。
騰訊最近大力加強其在快速發展的人工智能領域的技術,致力于推廣其內部LLM以供企業使用,并且還提供幫助其他公司建立自己模型的服務。
生成式人工智能服務的迅速普及導致中國人工智能行業陷入價格戰,由于企業尋求技術更大程度的商業化,所有主要參與者均大幅削減其產品價格。
今年5月,騰訊免費提供渾元LLM精簡版,同時降低標準版價格。此前,包括字節跳動、百度和阿里巴巴在內的競爭對手也采取了類似舉措。
模型訓練是一個能源密集型且昂貴的過程,競相提高其效率對于價格戰至關重要,因為這樣可以讓運營商及其客戶更能負擔得起這項技術。
百度創始人兼首席執行官李彥宏今年4月表示,其旗艦項目Ernie LLM的訓練效率在一年內提高了5倍多。他說,該模型的推理性能提高了105倍,推理成本降低了99%。
此外,OpenAI還將近期效率的提高視為其5月推出的GPT-4o模型定價大幅降低的原因。
原文來自https://www.93913.com/101924.html