英偉達芯片“倒爺”們,開始不發(fā)朋友圈了。
2023年大模型火熱的時候,“倒爺”們朋友圈的畫風是“欲購從速、30%定金,有實力的老板來!”到了2024年就變成了“現(xiàn)貨現(xiàn)款、物美價優(yōu)?!鄙踔劣幸慌艘呀涽鋈煌藞?。
以H100整機價格為例,官方售價為30萬美元左右,水貨一度高達300多萬人民幣,超過50%的利潤空間,讓不少人趨之若鶩,但是現(xiàn)在價格已經回落到230萬人民幣左右,再倒賣也就沒什么利潤空間。
其中既有英偉達芯片更新?lián)Q代的原因,基于Blackwell架構的GB200等新品單位算力成本更低;也有算力行業(yè)從過熱到回歸理性的必然,有了GPU并不意味能轉換成大模型算力,大家對這一現(xiàn)實的理解,是用真金白銀砸出來的。
大模型之大,動輒需要64/128/256臺服務器(一臺服務器8張GPU卡)組成的算力集群來訓練。對于志在基礎大模型的廠商來說,萬卡集群成了入門門檻,不僅海外OpenAI、馬斯克的xAI等都在規(guī)劃十萬卡集群,國內也同樣走在競逐十萬卡集群的路上。
來自需求端的壓力,也正在重新校正AI算力產業(yè),首當其沖的便是智算中心。作為計算、存儲、網絡的集合體,智算中心直接反映大模型算力的行業(yè)現(xiàn)狀,而來自一線的聲音趨于一致:智算中心太“多”,大模型不夠用了。
缺算力是真的,空置也是真的
智算中心并不是絕對意義上的“多”,無論從各種視角看,真正適配大模型訓練的算力在未來一段時間仍有很大的缺口,大規(guī)模智算中心的建設不會停止。
以OpenAI為代表,ChatGPT發(fā)布兩年來,大模型產業(yè)發(fā)展的腳步似乎變慢了,不排除這是大模型新一輪爆發(fā)前的蟄伏,在“Scaling Law”(規(guī)模法則)信仰之下,xAI、Meta、OpenAI等巨頭都在積極布局十萬卡乃至更大規(guī)模的智算集群。
例如7月份,馬斯克宣布位于美國田納西州孟菲斯市的超級集群開始投入訓練,該集群配備了10萬個英偉達 H100 GPU,被稱為 “世界上最強大的 AI 訓練集群”。兩個月后,馬斯克宣布該集群名為 “Colossus(巨人)”,將在未來幾個月內再增加 10 萬顆 GPU,其中 5 萬顆將是更為先進的英偉達 H200,Grok 3訓練預計在三到四個月內于該集群完成,目標是12月發(fā)布。
再看OpenAI,甚至因為算力交付和“鐵桿盟友”微軟產生了分歧。此前微軟與 OpenAI 合作共建一個代號為 “星際之門” 的巨型數(shù)據中心項目,項目預計成本超過 1150 億美元,旨在建設一個配備數(shù)百萬塊 GPU 的超級計算機。據報道,微軟計劃到2025年底向 OpenAI 提供約 30 萬個英偉達最新的 GB200。
但是奧爾特曼似乎對微軟的速度還不滿意,在完成66億美元的最新一筆融資后,OpenAI又與甲骨文達成合作,將在德克薩斯州的一個新數(shù)據中心租用服務器,該數(shù)據中心未來可容納數(shù)十萬個英偉達GPU。
超大規(guī)模數(shù)據中心解決方案運營商秦淮數(shù)據對鈦媒體APP表示,公司堅定看多智算,預計2027年開始智算需求進一步爆發(fā),到2030年100%的推理需求都需要由超大規(guī)模數(shù)據中心來完成。
賽迪顧問人工智能與大數(shù)據研究中心高級分析師白潤軒此前表示, 截至2024年上半年,國內已經建設和正在建設的智算中心超過250個,2024年上半年智算中心招投標相關事件791起,同比增長高達407.1%。
“這表明智算中心的建設在全國范圍內得到了廣泛的關注和支持。從2023年開始,各地政府加大了對智算中心的投資力度,推動了基礎設施的發(fā)展?!卑诐欆幷f。
百度智能云AI計算部負責人王雁鵬則表示,從需求側來看,十萬卡是今年大模型競爭的規(guī)模門檻,從技術角度來看,大模型算力基本估算為模型的大小乘以所需要的數(shù)據量,“GPT4是萬億參數(shù),大概用了2-3萬張H卡集群訓出來GPT4,按照Scaling Law推算,GPT5的集群卡數(shù)大概在十萬量級,可能是5-10萬之間,參數(shù)級別會提升大概3-5倍?!?span style="display:none">4N1即熱新聞——關注每天科技社會生活新變化gihot.com
然而,與萬卡算力集群火熱相對應的,是大模型市場的“冷清”。
據經濟觀察報統(tǒng)計,截至2024年10月9日,網信辦共通過188項生成式人工智能備案,也就是有188個大模型可以上線提供生成式人工智能服務。但超過三成的大模型在通過備案后未進一步公開其進展情況;僅有約一成的大模型仍在加速訓練模型;接近一半的大模型則轉向了AI應用的開發(fā)。
這些跡象可以理解為:大模型預訓練需求越來越集中了。
與此同時,國內市場相較于海外市場更復雜。相似之處是算力需求持續(xù)增長,不同之處是算力封鎖、生態(tài)不全,加之前期部分炒貨囤卡的行為,這就導致了一種詭異的狀態(tài)——算力既緊缺又空置。因為,“把GPU卡塞進機房”和“構建用于大模型訓練所需的算力集群”,是兩個完全不同的概念。
但是,對于智算中心的空置率或者浪費程度,并沒有一個統(tǒng)一的答案。從鈦媒體APP獲得的一份資料可以有個大概感知:上半年國內已上線智算中心17億卡時,使用5.6億卡時,利用率32%;另有數(shù)據顯示,目前算力基礎設施行業(yè)的平均上架率不足 60%。
算力空置引起各方關注
“各地前期已經建設了一批智算中心,不管是國產卡還是英偉達的卡,這些集群都不同程度上存在閑置問題,政府已經注意到了這些問題,智算中心的運營主體也也不少出現(xiàn)虧損,在算力挑戰(zhàn)短時間內很難解決的情況下,投資節(jié)奏上還是要有所把控。”一位接近政府的行業(yè)側人士對鈦媒體App提到。
國家層面先后推出了十余項政策推進智算中心建設,例如“東數(shù)西算”“數(shù)字中國建設整體布局規(guī)劃”等,但上述人士告訴鈦媒體App,最近發(fā)改委已經基本明確,如果還要進一步新建智算中心,而且是采購國外卡,能耗指標均不予批復。如果采購國產卡,考慮支持國產創(chuàng)新,并且在東數(shù)西算的八大節(jié)點上,還可以安排能耗指標。
據了解,目前智算中心主要投資模式,一是政府投資建設,建設資金來自地方政府財政資金、專項債券發(fā)行等,建成后所有權歸政府所有;二是企業(yè)獨立投資建設,由企業(yè)聯(lián)盟、少數(shù)企業(yè)聯(lián)合、單獨企業(yè)等形式進行投資;三是高校或科研機構獨立投資建設,向師生、研究人員提供免費算力支撐,服務高校教育場景,這種情況下建設成本較低。
這其中,有不少智算中心向銀行貸款采購GPU卡,承諾兜底方都是幾家搞基礎大模型的公司,比如阿里巴巴、騰訊、百度等。銀行也很疑惑,大模型公司本身就有云基礎設施和大量GPU卡,絕大多數(shù)中間商的議價權和渠道能力還不如這些大廠,怎么讓大廠們加錢采購?
鈦媒體APP獲悉,有地方政府開始斡旋,希望讓云廠商租用閑置的智算中心算力。“我們都不知道國內還有這么多卡,某種意義上,算力稀缺的背后存在一些資源錯配?!鄙鲜鋈耸勘硎?。
該人士還提到,政府意識到可能會有算力浪費的情況出現(xiàn),但是,部分地方手握能耗指標,和供應商拉扯的時間較多,智算中心建得慢,而部分地方建設得快反而虧損,由此帶來的負面甚至引起了高層注意。
據悉,工信部日前面向六個城市定向下發(fā)了關于智算云服務試點的批文,希望用公共云的方式,解決前期各地方的智算中心建設問題,特別是國有資金建設的一些小散算力中心浪費問題。
近幾個月來,政府側已經出臺多項政策,正強調有序引導,出清落后產能。
例如《數(shù)據中心綠色低碳發(fā)展專項行動計劃》發(fā)布,對數(shù)據中心行業(yè)的區(qū)域布局、能效水效、綠電使用進行了嚴格、全面的規(guī)定,并提出“全面清理地方高耗能電價優(yōu)惠政策”,輿論普遍認為該政策將加速落后產能淘汰,從而改善行業(yè)供給結構,促進行業(yè)良性發(fā)展。
8 月 1 日,《公平競爭審查條例》正式實施,要求各地方政府“沒有法律法規(guī)依據或國務院批準,不得給予特定經營者稅收優(yōu)惠”,這意味著盛行已久的地方“以稅引商”模式被按下了暫停鍵,企業(yè)將更關注經營本身,有利于行業(yè)從“卷價格”走向“卷創(chuàng)新”。
云計算行業(yè)也看到了智算中心建設的問題。阿里云智能科技研究中心主任安琳提到,目前有三種“萬卡集群:
假萬卡集群——公司確實有一萬張AI加速卡(GPU卡),但分布在全國幾個不同的數(shù)據中心,每個數(shù)據中心有幾百張或幾千卡,加起來超過萬卡。這種集群是“假萬卡集群”。
偽萬卡集群——擁有一萬張AI加速卡且部署在同一個數(shù)據中心,但訓練特定模型的時候,只有一部分卡實際參與訓練。例如:1000卡訓練A模型,2000張卡訓練B模型,3000張卡訓練C模型,4000張卡訓練D模型。這種萬卡集群是“偽萬卡集群”。
真萬卡集群——單一集群擁有一萬張AI加速卡(如GPU卡),部署在同一個數(shù)據中心,并且能通過大規(guī)模資源調度技術,讓萬卡作為“一臺”計算機,單一模型能在這一萬張卡上同時進行訓練。正如100個昆明湖連起來,也訓不出一支航母艦隊,大模型也是如此,只有真正的萬卡智算集群,才能訓練出國際先進的大模型。
有數(shù)據中心行業(yè)人士也表示,數(shù)據中心行業(yè)對內卷嚴重的感知非常明顯,比如很多數(shù)據中心企業(yè)無條件為客戶預留資源;簽訂短期租約,客戶擁有隨時調價調量的權益;過度擴大責任范圍;招投標突破合理價格底線等等,這都是一些內卷帶來的亂象。
為什么大模型算力會閑置?
在回答這一問題之前,有必要捋清下大模型所需的算力類型。
目前大模型所需的算力主要有三種,其一是超大規(guī)模的大模型訓練,需要的算力集群越來越大,智算中心供不應求;其二是常規(guī)的大模型訓練/微調,一般的裸金屬或者算力集群都能滿足;其三是推理需求,用云主機等都能滿足,未來需求有望穩(wěn)定增長。
可以看出,除了第一種基礎大模型的訓練需求之外,其余的大模型算力需求并不十分緊缺,不用最新的英偉達GPU卡,國產AI芯片也能頂上,企業(yè)可以在價格、成本、易用性等因素之間尋找平衡點。
ZStack CTO王為提到了一個很有意思的現(xiàn)象,也是國內企業(yè)不得已為之的權宜之計——他表示,企業(yè)對于AI的投入還是相對比較謹慎的,在很多場景下用消費級顯卡,很大程度上解決了大模型非預訓練的需求。
對于云廠商而言,按照正常的生意邏輯,一邊買卡一邊以云服務的形式賣出去,不會大肆囤卡,其他的囤卡行為顯然沒有充分認識到,賣卡這門生意有多難。
租卡也是一種節(jié)省成本的方法,GPU正在更新?lián)Q代,但不是簡單的付租金就行,云廠商還要帶著工程團隊去做大量改造,估算地價、電價等,額外配置交換機、網卡、光纜等,任何資本支出都要盤算是否值得投入。
安琳進一步補充道,智算中心的三大主要門檻包括集群網絡、任務調度、智能運維。王雁鵬也表示,國內構建10萬卡集群面臨著三大難題,跨地域部署、多芯混訓以及集群穩(wěn)定性,這些難題包括技術和工程上的多重挑戰(zhàn)。
首先是網絡,大模型催生了一種全新的網絡需求,此前從未有過,也就沒有相應的成熟方案,市面上所有方案都是邊研發(fā)邊使用,可以說,網絡技術直接決定集群規(guī)模能建多大。
“幾百G的帶寬,在每一個毫秒范圍內正向模型訓練帶寬全占滿,下一個毫秒又反向全占滿回來,在人類歷史上的通信,沒碰到過這種需求。
這涉及到諸多軟件硬件,交換機、網卡芯片硬件和軟件設計,路徑選擇的算法、通信協(xié)議的加速。要干這件事,網卡、交換機甚至中間用的光纜都得專門定制?!卑擦照f道,阿里云AI高性能網絡架構HPN 7.0成果論文被SIGCOMM2024收錄,成為SIGCOMM歷史上首篇關于AI智算集群網絡架構的論文。
其次是調度,算力集群規(guī)模小,網絡當然簡單,但是效率和規(guī)模就沒有競爭力,如何讓計算任務靈活的在硬件資源調度,資產利用率就能越高,算力價格就可以做到更低。
傳統(tǒng)思路是按照硬件資源做調度,先監(jiān)測算力卡是否空閑,如果閑著了就給他扔一個任務過去,這是最簡單且效率極低的調度,云計算行業(yè)早已經進化到按任務來調度,可以監(jiān)測到每一張卡上每一個任務的進程,然后根據任務進程分配新的任務。
安琳強調,“不是簡單地給算力卡安排任務,而是把更細顆粒度的一個個不同的計算任務在這些卡間做調度,需要很多的工程技術能力積累,這也是為什么現(xiàn)在全世界做得好的AI公司,基本上都屬于云計算公司。”
最后是運維,在以前的計算中,算力卡壞了可以很快將其隔離,然后繼續(xù)用其他卡運行,現(xiàn)在大模型有很多瞬時故障,在毫秒級時間有抖動,一次通信過程中的抖動和丟包,就會導致GPU利用率下降50%。據安琳介紹,阿里云已經升級到毫秒級檢測,及時從集群里隔離故障算力。
此外,國內企業(yè)構建算力集群還面臨著一個現(xiàn)實的困難:芯片。
國內企業(yè)面臨算力供應不穩(wěn)定的挑戰(zhàn),較難構建單一大規(guī)模訓練集群。
現(xiàn)實情況是,企業(yè)內部會出現(xiàn)同一廠商不同代際芯片,或者不同廠商芯片共存的情況。這些芯片如何進行混部訓練,同時保證混部訓練的效率也是難題。
此外,隨著芯片集成度的不斷提高,芯片的故障率也會相應上升,英偉達H系列芯片的故障率比A系列高3-4倍。并且算力集群規(guī)模越大,其故障率就越高。按照H系列芯片的故障率水平,十萬卡集群每20分鐘就會出現(xiàn)故障。較高的故障率對穩(wěn)定性訓練保障提出了更高的要求。
王雁鵬介紹,包括百度在內的國內廠商正在破解這些難題。在跨地域方面,針對由于傳輸距離變長所產生的高延遲,百舸4.0已經構建了十萬卡級別的超大規(guī)模HPN高性能網絡,通過提供更高效的拓撲結構、更優(yōu)的多路徑負載均衡策略及通信策略,能夠實現(xiàn)幾十公里的跨地域通信。同時,在通信效率上,通過優(yōu)化的擁塞控制算法、集合通信算法策略,將帶寬有效率提升至95%,實現(xiàn)了完全無阻塞。最后,通過10ms級別超高精度網絡監(jiān)控,保障了網絡穩(wěn)定性。
智算中心,從內卷走向有序
對于智算中心的建設是否過于超前,不同人有不同看法。一方認為,國內智算中心還無法擺脫海外生態(tài)體系,需要三到五年的過渡期,在此過程中,大規(guī)模加速建設智算中心必然會帶來大量浪費。
另一方認為,海外封鎖只會愈發(fā)嚴峻,國產算力生態(tài)必須加速成熟,相比于國家戰(zhàn)略的競爭,超前建設帶來的一些小問題是可以接受的。有消息顯示,受到美方要求,臺積電被迫采取臨時策略,將暫停向大陸AI算力芯片客戶供應7nm工藝及以下更先進制程的代工服務。
目前來看,囤積英偉達卡的確帶來一部分算力浪費,如上所述,很多購卡方不具備智算中心所需的網絡、調度和運維能力。一位智算中心技術專家直言,“之前太多的投機倒把,很多都不是干這個行業(yè)的,覺得囤貨就能掙錢,把它塞到一個機房里面去,穩(wěn)定性,各種容錯,亂七八糟的問題都解決不了,造成了很多浪費。
國產算力也同樣存在問題,該專家談及國產AI算力的浪費時感慨,“華為的運營能力太強,在大家還沒有準備好用國產卡和用華為的時候,花了大力氣搞算力場、智算中心,運營商建了大幾萬卡的集群,它的芯片距離客戶開箱即用,到真正能用好還有一些距離,接下來會有更多的國產芯片進來,這個問題會進一步放大?!?span style="display:none">4N1即熱新聞——關注每天科技社會生活新變化gihot.com
“但是對于整體國產卡這件事情我比較樂觀,基于大模型時代算力格局變化。原來的模型非常分散,CUDA生態(tài)非常厲害是因為要兼容那么多模型,現(xiàn)在大模型比較收斂的情況下,大家的主流框架是一樣的;同時英偉達又這么貴,再考慮到算力可獲得性問題,大家就會更愿意嘗試用國產卡?!彼a充表示。
近日,《科技日報》也頭版刊登了全國政協(xié)委員張云泉署名文章《智算中心建設不可盲目跟風》,文章強調,智算中心的建設需要巨額資金投入,而投資回報卻不確定。
文章表示,由于智算技術更新迭代很快,智算中心的生命周期一般只有5至10年,如果沒有強大的技術儲備和升級能力,就可能陷入不斷投入卻無法跟上技術發(fā)展步伐的困境。另外,智算中心的運營管理離不開專業(yè)的技術人才和高效的管理團隊,否則就可能無法發(fā)揮其應有作用,甚至出現(xiàn)設備閑置、資源浪費等問題。由此看來,智算中心該不該建、能不能建、什么時候建、建在哪里,需要科學、穩(wěn)慎決策,絕不能頭腦發(fā)熱、一哄而上“趕時髦”??偟脑瓌t應當是,在市場需求明確且可持續(xù)的情況下,因地制宜、按需建設、適當超前。
一些地方也加強了對智算中心運營的要求,比如山東德州價值約2億元的“全國一體化工業(yè)大數(shù)據山東云中心省會經濟圈區(qū)域分中心數(shù)據機房‘德智未來’智算中心項目”,就在招標文件中明確寫明了“采用設計施工采購運營一體化的模式建設”,要求運營期限不低于5年,并規(guī)定了項目驗收投運后每年算力的最低收益。
王為也表示,從政策角度上看,政府對智算中心的要求比以前多,以前是先把智算中心建起來就行,現(xiàn)在建設初期就會找好的運營方,或者建設與運營一體,保證算力的使用率。
“去年算力消耗以訓練為主,目前看消解不了算力中心的算力,很多大模型廠商手里囤的算力也不少,一些大模型廠商也減少了預訓練,不太需要對外租很大的算力了?,F(xiàn)在很多智算中心也開始找一些推理的場景,研究落地應用,使用端會更分散,整個市場應該會更健康?!彼f。
本文鏈接:http://www.3ypm.com.cn/news-14-6923-0.html智算中心太“多”,大模型不夠用了
聲明:本網頁內容由互聯(lián)網博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯(lián)系,我們將在第一時間刪除處理。
上一篇:「富勒科技」完成3億元新一輪融資
下一篇:浙大天才,震驚全球
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕