騰訊無需英偉達(dá)最先進(jìn)芯片即可提高AI訓(xùn)練效率
在技術(shù)自力更生背景下,中國科技巨頭正在尋求基于現(xiàn)有系統(tǒng)和設(shè)備來提升大型語言模型 (LLM)訓(xùn)練的方法,騰訊已升級其高性能計(jì)算(HPC)網(wǎng)絡(luò),提升其人工智能(AI)能力。
騰訊云計(jì)算部門周一表示,騰訊智能高性能網(wǎng)絡(luò)(中文名為星脈)2.0 版本將使網(wǎng)絡(luò)通信和LLM培訓(xùn)的效率分別提高60%和20%。
由于美國出口規(guī)則嚴(yán)格,英偉達(dá)先進(jìn)芯片供應(yīng)受限,而騰訊星脈此次性能提升正是在此背景下實(shí)現(xiàn)的。騰訊通過優(yōu)化現(xiàn)有設(shè)施實(shí)現(xiàn)了性能提升,而不是試圖在支出和尖端半導(dǎo)體方面與 OpenAI等美國競爭對手正面競爭。
HPC網(wǎng)絡(luò)連接強(qiáng)大的圖形處理單元(GPU)集群,以極高的速度處理數(shù)據(jù)和解決問題。
騰訊稱,在現(xiàn)有HPC網(wǎng)絡(luò)技術(shù)下,計(jì)算集群花費(fèi)了太多時(shí)間與其他集群進(jìn)行通信,導(dǎo)致相當(dāng)一部分GPU容量處于閑置狀態(tài)。因此,公司升級了網(wǎng)絡(luò),以加快通信過程并降低成本。
騰訊介紹,騰訊星脈網(wǎng)絡(luò)可以支持擁有超過100000個(gè)GPU的單個(gè)計(jì)算集群,規(guī)模是2023年發(fā)布的網(wǎng)絡(luò)初始版本的兩倍。騰訊表示,性能的提升將識別問題所需的時(shí)間從之前的幾天縮短到幾分鐘。
騰訊最近大力加強(qiáng)其在快速發(fā)展的人工智能領(lǐng)域的技術(shù),致力于推廣其內(nèi)部LLM以供企業(yè)使用,并且還提供幫助其他公司建立自己模型的服務(wù)。
生成式人工智能服務(wù)的迅速普及導(dǎo)致中國人工智能行業(yè)陷入價(jià)格戰(zhàn),由于企業(yè)尋求技術(shù)更大程度的商業(yè)化,所有主要參與者均大幅削減其產(chǎn)品價(jià)格。
今年5月,騰訊免費(fèi)提供渾元LLM精簡版,同時(shí)降低標(biāo)準(zhǔn)版價(jià)格。此前,包括字節(jié)跳動、百度和阿里巴巴在內(nèi)的競爭對手也采取了類似舉措。
模型訓(xùn)練是一個(gè)能源密集型且昂貴的過程,競相提高其效率對于價(jià)格戰(zhàn)至關(guān)重要,因?yàn)檫@樣可以讓運(yùn)營商及其客戶更能負(fù)擔(dān)得起這項(xiàng)技術(shù)。
百度創(chuàng)始人兼首席執(zhí)行官李彥宏今年4月表示,其旗艦項(xiàng)目Ernie LLM的訓(xùn)練效率在一年內(nèi)提高了5倍多。他說,該模型的推理性能提高了105倍,推理成本降低了99%。
此外,OpenAI還將近期效率的提高視為其5月推出的GPT-4o模型定價(jià)大幅降低的原因。
原文來自https://www.93913.com/101924.html