美國對18個關(guān)鍵盟友與合作伙伴的芯片銷售無任何限制。除此之外的大多數(shù)國家則將面臨總算力限制,每個國家在2025年至2027年期間最多可獲得約50000個AI GPU。美國還將免除集體算力較低的芯片銷售許可,例如向大學(xué)和研究機構(gòu)的銷售。
雖然每個季度在企業(yè)AI芯片支出中Nvidia要占有高達數(shù)百億美元的份額,但仍有許多公司和投資者認為AI基礎(chǔ)設(shè)施市場還有空間留給其他贏家,無論是邊緣芯片還是數(shù)據(jù)中心芯片領(lǐng)域。
英特爾美國渠道負責(zé)人Michael Green表示,當(dāng)英特爾的Gaudi 3加速器芯片成為“2025年渠道可用的產(chǎn)品”時,渠道合作伙伴將在推出該芯片的過程中發(fā)揮“巨大作用”。
此前,光刻機領(lǐng)域的領(lǐng)軍企業(yè)ASML公布的業(yè)績不及預(yù)期,引發(fā)了市場對于全球芯片制造業(yè)[產(chǎn)能過剩]的擔(dān)憂,并進一步對人工智能需求增長的真實性和可持續(xù)性產(chǎn)生了質(zhì)疑。然而,臺積電隨后發(fā)布的三季度財報及隨后的電話會議,顯著提振了半導(dǎo)體行業(yè)的信心,為美股資本市場帶來了積極信號,猶如一劑[強心針]。
AI芯片通常采用GPU和ASIC架構(gòu)。GPU因其在運算和并行任務(wù)處理上的優(yōu)勢成為AI計算中的關(guān)鍵組件,它的算力和顯存、帶寬決定了GPU的運算能力。GPU的核心可分為CudaCore、Tensor Core等;Tensor Core是增強AI計算的核心,相較于并行計算表現(xiàn)卓越的Cuda Core,它更專注于深度學(xué)習(xí)領(lǐng)域,通過優(yōu)化矩陣運算來加速AI深度學(xué)習(xí)的訓(xùn)練和推理任務(wù)
在當(dāng)下的AI競爭格局下,沒什么能比一場AI濃度爆表的大會,更能快速彰顯自身實力了,AMD的這場「Advancing AI大會」,就是印證。
不少解決方案提供商看好AWS投入巨資打造專門針對AWS基礎(chǔ)設(shè)施優(yōu)化芯片的計劃,該計劃將使合作伙伴在AI市場競爭中占據(jù)優(yōu)勢,因為電力成本更低,供應(yīng)鏈優(yōu)勢更大。
因此,英特爾在Computex簡報會上公布了產(chǎn)品的定價與基準測試性能,以期展示Gaudi 3與當(dāng)前“Hopper”H100 GPU的直接比較結(jié)果。
曾幾何時,或者說就在短短幾年之前,數(shù)據(jù)中心芯片市場還是個資金門檻極高但卻相對簡單的市場。CPU戰(zhàn)團主要有英特爾、AMD和Arm,GPU陣營則是英偉達、AMD和英特爾等廠商的舞臺。盡管AI初創(chuàng)公司數(shù)量可觀,但普遍并未在數(shù)據(jù)中心領(lǐng)域建立起真正的話語權(quán)。
英特爾將推出兩款專供中國市場的Gaudi 3 AI加速器,根據(jù)美國出臺的制裁政策對性能做出大幅“閹割”。
Precedence Research近期發(fā)布的報告也顯示,預(yù)計到2032年,涵蓋CPU、GPU、ASIC以及FPGA等類型的AI芯片市場規(guī)模將從2023年的約219億美元大幅增長至2274.8億美元。
盡管AI芯片種類繁多,GPU因其適應(yīng)性和強大的并行計算能力,仍是AI模型訓(xùn)練的主流硬件。英偉達在GPU領(lǐng)域的技術(shù)積累和生態(tài)建設(shè)使其處于領(lǐng)先地位,而國內(nèi)GPU廠商雖在追趕,但仍存在差距。AI應(yīng)用向云、邊、端全維度發(fā)展,模型小型化技術(shù)成熟,數(shù)據(jù)傳輸需求增加,Chiplet技術(shù)降低設(shè)計復(fù)雜度和成本。
Nvidia在2023年投資者會議上展示了其GPU發(fā)展藍圖,計劃在2024年推出H200和B100 GPU,2025年推出X100 GPU。其AI芯片更新周期從兩年一次縮短至一年一次,體現(xiàn)產(chǎn)品開發(fā)速度加快。Nvidia的“One Architecture”統(tǒng)一架構(gòu)支持不同環(huán)境下的模型訓(xùn)練和部署,適用于數(shù)據(jù)中心和邊緣計算。同時,Nvidia的技術(shù)路線圖包括HBM3E高速存儲器、PCIE 6.0/7.0、NVLink、224G SerDes、1.6T接口等先進技術(shù)。
HBM技術(shù)通過提升I/O口數(shù)量和速率,突破內(nèi)存限制,成為AI芯片的強大輔助。HBM3和HBM3e將成為AI服務(wù)器主流配置,預(yù)計HBM4將于2026年發(fā)布。全球HBM市場預(yù)計在2024年超百億美元。HBM采用TSV+Bumping和TCB鍵合方式,但散熱效率低下,海力士引入MR-MUF工藝改善。預(yù)計HBM4將采用混合鍵合Hybrid Bonding技術(shù),3D封裝的核心是混合鍵合與TSV。
今天Nvidia公布了第四季度財務(wù)業(yè)績,結(jié)果再次超出華爾街預(yù)期,使其股價在盤后交易中走高。
19 位學(xué)界、業(yè)界人士憂心忡忡、把酒言歡的搞了一篇論文,把 AI 治理聚焦到了“硬件”和“算力”上。
英偉達發(fā)布了目前最強的AI芯片H200,性能較H100提升了60%到90%,還能和H100兼容
AI專用硬件的全面普及還需要不短的時間,在此之前,唯一辦法就是充分挖掘現(xiàn)有硬件終端本身的計算能力。