Meta宣布了兩個新的24K H100 GPU集群,用于訓練大模型Llama-3,預計4月末或5月中旬上線。集群使用RoCEv2網(wǎng)絡和基于Tectonic/Hammerspace的存儲解決方案,支持PyTorch。
大模型的訓練需要大量的計算資源,企業(yè)的資金投入幾十億到上百億,因此在算力投入上要特別謹慎。大模型的訓練是個典型的超算場景,采用超算的方式對企業(yè)來說更具性價比。租用算力方式比自建方式能讓企業(yè)風險更低、現(xiàn)金流更充裕。
北京第二十六維信息技術有限公司(至頂網(wǎng))版權所有. 京ICP備15039648號-7 京ICP證161336號京公網(wǎng)安備 11010802021500號
舉報電話:010-62641205-5060 涉未成年人舉報專線:010-62641208 舉報郵箱:jubao@zhiding.cn
網(wǎng)上有害信息舉報專區(qū):https://www.12377.cn