新聞中心
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

德國哲學(xué)家萊布尼茨曾表示世上沒有兩片完全相同的樹葉,這樣的差異性也意味著世界上每一個(gè)物體都有自己獨(dú)有的ID。如今,AI已經(jīng)逐漸掌握辨別物體細(xì)微差異的技能,從海量圖像中找到目標(biāo)物體。
8月6日,據(jù)記者了解,達(dá)摩院首次將Pure Transformer模型(下文簡稱為Transformer模型/結(jié)構(gòu))引入目標(biāo)重識別任務(wù)中,該方法可以高效完成細(xì)粒度的圖像檢索任務(wù),并超越其它AI算法,在準(zhǔn)確率和檢索時(shí)間上均取得了迄今為止最好的成績。該研究已被AI頂會ICCV 2021收錄,并斬獲CVPR 2021 AICity挑戰(zhàn)賽目標(biāo)重識別賽道冠軍,目前,該技術(shù)已正式向全球開發(fā)者開源。
達(dá)摩院算法斬獲CVPR 2021 AICity挑戰(zhàn)賽目標(biāo)重識別賽道冠軍
目標(biāo)重識別是計(jì)算機(jī)領(lǐng)域研究的新趨勢,據(jù)統(tǒng)計(jì),目前每1000篇計(jì)算機(jī)視覺論文就有30篇和目標(biāo)重識別研究相關(guān)。不同于目標(biāo)檢測、目標(biāo)分割等任務(wù),目標(biāo)重識別的難度更高。例如同一個(gè)物體會因?yàn)橐暯?、光線、遮擋等因素而產(chǎn)生外觀差異,不同的物體在同樣的角度和光線下在視覺上的相似度極高,即便通過肉眼也很難克服這些干擾信息,如何區(qū)分這其中的差異并精準(zhǔn)找到目標(biāo)物體一直都是業(yè)界的難題。
過去幾年,AI研究人員逐步嘗試用深度學(xué)習(xí)CNN模型來解決該問題,但CNN模型在處理目標(biāo)重識別任務(wù)時(shí)容易丟失圖像部分細(xì)節(jié)信息,同時(shí)又無法有效挖掘圖像各特征的全局關(guān)聯(lián)性,從而導(dǎo)致其在復(fù)雜場景下的表現(xiàn)較差。此次,達(dá)摩院創(chuàng)新性將Pure Transformer模型應(yīng)用于目標(biāo)重識別任務(wù)中,并提出首個(gè)基于Pure Transformer結(jié)構(gòu)的ReID框架TransReID,該框架借助水平切塊思想提取更加豐富的細(xì)節(jié)特征,同時(shí)可通過不同模態(tài)信息的融合來解決視角差異問題。經(jīng)過測試顯示,該方法已在6個(gè)數(shù)據(jù)集上的成績超越了SOTA最好的算法成績。
圖:達(dá)摩院TransReID首先將圖片物理切割成若干個(gè)圖片小塊,每個(gè)圖片小塊經(jīng)過特征提取模塊提取各自的視覺特征,之后計(jì)算得到最終圖像的全局特征。此外該框架還能夠幫助模型克服相機(jī)帶來的外觀偏差以及提取更加魯棒的全局特征。
該項(xiàng)目研究負(fù)責(zé)人、達(dá)摩院算法專家羅浩表示:“過去Pure Transformer在NLP以及基礎(chǔ)視覺領(lǐng)域取得了較大成功,但在更加細(xì)粒度的圖像檢索任務(wù)上還未有過嘗試,達(dá)摩院此次研究引領(lǐng)了新的研究趨勢,這是行業(yè)的又一個(gè)里程碑?!?/p>
據(jù)悉,該技術(shù)的應(yīng)用前景廣闊,達(dá)摩院研究團(tuán)隊(duì)表示未來會將該技術(shù)應(yīng)用于安全防護(hù)以及自然資源、動物保護(hù)等領(lǐng)域,例如通過算法來找回走失的珍稀動物。
分享文章:達(dá)摩院提出目標(biāo)重識別新范式,已向全球開發(fā)者開源
分享路徑:http://m.fisionsoft.com.cn/article/dhghigs.html


咨詢
建站咨詢
