两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

一種結(jié)合文本引導(dǎo)的行人重識別方法與流程

文檔序號:40651731發(fā)布日期:2025-01-10 18:58閱讀:5來源:國知局
一種結(jié)合文本引導(dǎo)的行人重識別方法與流程

本發(fā)明涉及圖像識別研究領(lǐng)域,具體涉及一種結(jié)合文本引導(dǎo)的行人重識別方法。


背景技術(shù):

1、行人識別技術(shù)在安防、監(jiān)控和智能視頻分析等領(lǐng)域中具有重要應(yīng)用價值。傳統(tǒng)的行人識別方法主要依賴于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)技術(shù),通過從圖像中提取特征來識別個體。這些技術(shù)通常專注于提取全局特征,如體型和姿態(tài),以及局部特征,如面部和服裝。

2、盡管現(xiàn)有技術(shù)在行人識別方面取得了顯著進展,但在捕捉和識別行人細節(jié)特征方面仍存在限制。例如,對于服裝的款式、紋理細節(jié)或發(fā)型的精確識別,傳統(tǒng)方法可能不足夠敏感。這些細節(jié)特征對于區(qū)分不同個體或在變化環(huán)境中識別同一行人至關(guān)重要,因此,提高對這些細節(jié)特征的識別能力是行人識別技術(shù)發(fā)展的一個重要方向。


技術(shù)實現(xiàn)思路

1、為了克服現(xiàn)有技術(shù)的不足,本發(fā)明通過引入文本描述來監(jiān)督模型的訓(xùn)練,從而解決傳統(tǒng)行人識別技術(shù)在捕捉細節(jié)特征上的局限。這種方法涉及使用文本描述(如服裝款式、顏色、紋理和其他個人特征的描述)來指導(dǎo)和優(yōu)化深度學(xué)習(xí)模型的訓(xùn)練過程,確保模型能更準確地學(xué)習(xí)和識別這些細節(jié)特征。技術(shù)方案如下:

2、一種結(jié)合文本引導(dǎo)的行人重識別方法,包括以下步驟:

3、步驟1,收集多樣化的行人圖像,確保覆蓋不同光照、背景和姿態(tài)條件,為模型提供豐富、多變的訓(xùn)練數(shù)據(jù)。

4、步驟2,捕捉行人的核心視覺信息,利用深度卷積神經(jīng)網(wǎng)絡(luò)提取圖像的圖像特征。

5、步驟3,通過圖像描述模型直接從原始圖像生成文本描述,為模型提供額外的、細粒度的語義層面信息。

6、優(yōu)選的,可以將圖像模型描述與人工標注相結(jié)合的方式生成圖像描述,確保描述的準確性。

7、步驟4,使用文本特征提取模型處理生成的文本描述,提取并文本特征,將文本中的語義信息轉(zhuǎn)換為與圖像特征相匹配的特征表示,其維度與圖像特征相同。

8、步驟5,計算圖像與文本的對比損失,通過優(yōu)化這一損失,模型學(xué)習(xí)將視覺和文本特征對齊,增強對細節(jié)的敏感性和描述能力。

9、優(yōu)選的,對比損失計算公式如下:

10、

11、其中fi為圖像特征,gi為文本特征,τ為溫度參數(shù),sim為相似度計算函數(shù),具體公式為

12、優(yōu)選的,溫度參數(shù)τ=2。

13、步驟6,計算基于圖像特征的重識別分類損失,這一步驟確保模型能夠有效區(qū)分不同行人的身份,增強模型在實際場景中的應(yīng)用能力。

14、優(yōu)選的,重識別分類損失公式為:

15、

16、其中wi為模型最后的線性分類層第i列權(quán)重。

17、步驟7,將對比損失和分類損失加權(quán)結(jié)合,形成最終的損失函數(shù),通過這種組合,模型能夠同時關(guān)注于行人的整體身份和細節(jié)特征,提高綜合識別性能。

18、步驟8,通過優(yōu)化算法最小化總損失,模型通過學(xué)習(xí)圖像和文本的關(guān)聯(lián)以及行人身份分類來提升其識別能力。

19、優(yōu)選的,優(yōu)化算法使用adam優(yōu)化器,學(xué)習(xí)率1×10-4。

20、步驟9,通過在驗證集上評估模型性能,并根據(jù)反饋進行微調(diào),進一步提升模型的準確性和魯棒性。

21、步驟10,訓(xùn)練好模型后,取出圖像特征提取模型,對兩張行人圖片m、n分別提取特征得到fm、fn,計算特征的相似度score=sim(fm,fn),當相似度小于閾值時,則識別為同一行人。

22、與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果為:通過本發(fā)明,行人識別模型的訓(xùn)練過程將更加注重個體的細節(jié)特征,從而顯著提高識別的準確性和細致度。這種技術(shù)的應(yīng)用能夠增強模型對于服裝紋理、款式和其他關(guān)鍵個人特征的識別能力,特別是在復(fù)雜背景和多變環(huán)境下的識別效果將得到顯著提升。因此,這種改進將大幅度增強安防、監(jiān)控和其他相關(guān)應(yīng)用中行人識別的有效性和可靠性。



技術(shù)特征:

1.一種結(jié)合文本引導(dǎo)的行人重識別方法,其特征在于,包括以下步驟:

2.根據(jù)權(quán)利要求1所述的一種結(jié)合文本引導(dǎo)的行人重識別方法,其特征在于,對比損失計算公式如下:

3.根據(jù)權(quán)利要求2所述的一種結(jié)合文本引導(dǎo)的行人重識別方法,其特征在于,溫度參數(shù)τ=2。

4.根據(jù)權(quán)利要求2所述的一種結(jié)合文本引導(dǎo)的行人重識別方法,其特征在于,重識別分類損失公式為:

5.根據(jù)權(quán)利要求4所述的一種結(jié)合文本引導(dǎo)的行人重識別方法,其特征在于,步驟8中優(yōu)化算法使用adam優(yōu)化器,學(xué)習(xí)率1×10-4。

6.根據(jù)權(quán)利要求1所述的一種結(jié)合文本引導(dǎo)的行人重識別方法,其特征在于,步驟3將圖像模型描述與人工標注相結(jié)合的方式生成圖像描述,確保描述的準確性。


技術(shù)總結(jié)
本發(fā)明公開了一種結(jié)合文本引導(dǎo)的行人重識別方法,包括以下步驟:收集多樣化的行人圖像,利用深度卷積神經(jīng)網(wǎng)絡(luò)提取圖像的圖像特征,通過圖像描述模型直接從原始圖像生成文本描述,并提取文本特征,通過優(yōu)化圖像與文本的對比損失,將視覺和文本特征對齊;優(yōu)化重識別分類損失,確保模型能夠有效區(qū)分不同行人的身份,通過在驗證集上評估模型性能,并根據(jù)反饋進行微調(diào),使用訓(xùn)練好的模型進行行人識別。本發(fā)明通過引入文本描述來監(jiān)督模型的訓(xùn)練,從而解決傳統(tǒng)行人識別技術(shù)在捕捉細節(jié)特征上的局限。這種方法涉及使用文本描述(如服裝款式、顏色、紋理等)來指導(dǎo)和優(yōu)化深度學(xué)習(xí)模型的訓(xùn)練過程,確保模型能更準確地學(xué)習(xí)和識別這些細節(jié)特征。

技術(shù)研發(fā)人員:周金明,朱旭光,查煜
受保護的技術(shù)使用者:南京行者易智能交通科技有限公司
技術(shù)研發(fā)日:
技術(shù)公布日:2025/1/9
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
巴彦淖尔市| 泊头市| 山阴县| 龙陵县| 道真| 河北区| 乐业县| 道真| 温泉县| 连江县| 瑞金市| 景宁| 梁山县| 柳河县| 炉霍县| 荃湾区| 江山市| 庆阳市| 石渠县| 安溪县| 潞城市| 米易县| 吴堡县| 德昌县| 洛阳市| 河南省| 张北县| 株洲县| 青冈县| 延安市| 伊春市| 新竹市| 揭阳市| 普定县| 江川县| 芷江| 台前县| 山东省| 英德市| 客服| 景洪市|