谷歌DeepMind發(fā)布新的離線視覺語言行動模型,讓機器人無需云端支持即可自主運行。該模型基于Gemini的多模態(tài)理解能力,能夠完成系鞋帶、折衣服等復(fù)雜任務(wù)。相比之前的混合云端模式,新模型準(zhǔn)確性僅略有下降,但大幅提升了響應(yīng)速度和隱私保護。開發(fā)者可通過SDK進行定制化調(diào)優(yōu),僅需50-100次演示即可適應(yīng)新任務(wù)。
北京第二十六維信息技術(shù)有限公司(至頂網(wǎng))版權(quán)所有. 京ICP備15039648號-7 京ICP證161336號京公網(wǎng)安備 11010802021500號
舉報電話:010-62641205-5060 涉未成年人舉報專線:010-62641208 舉報郵箱:jubao@zhiding.cn
網(wǎng)上有害信息舉報專區(qū):https://www.12377.cn