目前,Transformer架構(gòu)的預(yù)訓(xùn)練大模型在存儲、查詢數(shù)據(jù)時,隨著參數(shù)的變大對算力的需求呈指數(shù)級增長!坝洃泴印碧岢隽诵碌母咝Р樵儥C(jī)制替代了傳統(tǒng)的查詢方法,通過比較查詢鍵與兩個較小集合中的鍵,可以快速找到最相關(guān)的鍵,而無需遍歷模型的整個記憶層。
北京第二十六維信息技術(shù)有限公司(至頂網(wǎng))版權(quán)所有. 京ICP備15039648號-7 京ICP證161336號京公網(wǎng)安備 11010802021500號
舉報電話:010-62641205-5060 涉未成年人舉報專線:010-62641208 舉報郵箱:jubao@zhiding.cn
網(wǎng)上有害信息舉報專區(qū):https://www.12377.cn