為了實現(xiàn)圖像中的交互式區(qū)域特定理解,最近的方法采用了各種策略來表示目標(biāo)區(qū)域:在文本標(biāo)記中編碼文本框坐標(biāo),利用視覺 RoI 特征,或應(yīng)用視覺標(biāo)記。將這些能力擴展到視頻領(lǐng)域,一些方法將初始幀的邊界框坐標(biāo)作為文本形式用于區(qū)域級視頻理解任務(wù)。然而,一種能夠有效解決圖像和視頻中區(qū)域特定任務(wù)的通用方法仍然是一個開放的挑戰(zhàn)。
本文提出了一種精心設(shè)計的分階段訓(xùn)練方法,逐步訓(xùn)練大型語言模型以理解視覺和語音信息,最終實現(xiàn)流暢的視覺和語音交互。我們的方法不僅保留了強大的視聽能力,而且無需單獨的自適應(yīng)語音識別(ASR)和文本到語音(TTS)模塊,就能實現(xiàn)高效的語音轉(zhuǎn)語音對話能力,顯著加快了多模態(tài)端到端的響應(yīng)速度。