近日,華中科技大學(xué)軟件學(xué)院教授白翔領(lǐng)銜的VLRLab團(tuán)隊發(fā)布了多模態(tài)大模型——“Monkey”。該模型能夠?qū)崿F(xiàn)對世界的“觀察”,對圖片進(jìn)行深入的問答交流和精確描述。
圖為團(tuán)隊將Monkey代碼在全球最大的代碼托管服務(wù)平臺GitHub上開源
多模態(tài)大模型是一類可以同時處理和整合多種感知數(shù)據(jù)(例如文本、圖像、音頻等)的AI架構(gòu),近年來在眾多場景中展現(xiàn)了驚人的能力。據(jù)該團(tuán)隊負(fù)責(zé)人介紹,Monkey模型在18個數(shù)據(jù)集上的實驗中表現(xiàn)出色,特別是在圖像描述和視覺問答任務(wù)方面,超越了眾多現(xiàn)有知名的模型如微軟的LLAVA、谷歌的PALM-E、阿里的Mplug-owl等。此外,Monkey在文本密集的問答任務(wù)中顯示出顯著的優(yōu)勢,甚至在某些樣本上超越了業(yè)界公認(rèn)的領(lǐng)先者——OpenAI的多模態(tài)大模型GPT-4V。
Monkey的一個顯著特點是其出色的“看圖說話”能力。在詳細(xì)描述任務(wù)中,Monkey展現(xiàn)了對圖像細(xì)節(jié)的感知能力,能夠察覺到其他多模態(tài)大模型所忽略的內(nèi)容。比如,對下面的圖片進(jìn)行的文本描述中,Monkey正確地將其識別為埃菲爾鐵塔的繪畫,并提供了構(gòu)圖和配色方案的詳細(xì)描述。而對左下角的文字,只有Monkey和GPT-4V能將其準(zhǔn)確地識別為作者名。
這樣驚人的描述能力是怎么做到的?目前,幾乎所有多模態(tài)大模型都需要運用網(wǎng)上爬取的圖文對數(shù)據(jù)集,這些數(shù)據(jù)集只能進(jìn)行簡單的圖文描述,無法大分辨率圖片的需求。Monkey巧妙利用現(xiàn)有的工具構(gòu)建了一種多層級的描述生成方法,即通過五個步驟依次對圖片進(jìn)行整體簡述、空間定位、模塊化識別、描述賦分選取和最終總結(jié),此舉可以充分結(jié)合不同工具的特性,打出一套威力十足的“組合拳”,大幅度提升描述的準(zhǔn)確性和豐富程度。
“一個個工具就好比不同的零件,合理的排列組合才能使其發(fā)揮最大作用,”白翔說。
白翔表示:“我們團(tuán)隊從2003年開始便從事圖像識別研究,去年我們又從海外引進(jìn)了專攻多模態(tài)大模型的青年人才,Monkey的最終方案是大家一起反復(fù)討論,嘗試了10余種方案后最終確定的?!?span style="display:none">vP3即熱新聞——關(guān)注每天科技社會生活新變化gihot.com
Monkey的另一亮點是能夠處理分辨率高達(dá)1344×896像素的圖像,這是目前其他多模態(tài)大模型所能處理的最大尺寸的6倍。這意味著Monkey能對更大尺寸的圖片進(jìn)行更準(zhǔn)確、豐富、細(xì)致的描述甚至推理。
據(jù)了解,目前業(yè)內(nèi)能處理的圖片最大分辨率為448×448像素。而想要進(jìn)一步提升處理能力,需投入十分高昂的算力成本。如何更低成本擴(kuò)大輸入分辨率?該團(tuán)隊骨干青年教師劉禹良向記者介紹,團(tuán)隊采用了創(chuàng)新性的“裁剪”方法,將原始輸入圖片分割成多個塊,每塊尺寸小于448×448像素,并為每個塊配備了一個“放大鏡”,放到合適的位置可以“看”清更多細(xì)節(jié)。多個“放大鏡”同時工作,分別“放大”不同的圖片塊,就能提取更多局部特征。
“未來,我們希望Monkey更強(qiáng)大,真正成為神通廣大的‘孫悟空’!”對這只小猴子,白翔信心滿滿。
本文鏈接:http://www.3ypm.com.cn/news-8-279-0.html這只火眼金睛的的AI“小猴子”,由華科大團(tuán)隊研發(fā)
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點,本站不承擔(dān)任何法律責(zé)任。天上不會到餡餅,請大家謹(jǐn)防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇:華科大兩名教師入選這一獎勵計劃
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“”按鈕