《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 一種基于目標先驗信息的視覺跟蹤算法
一種基于目標先驗信息的視覺跟蹤算法
2016年微型機與應用第04期
吳世東
(中國科學技術大學 自動化系,安徽 合肥 230027)
摘要: 針對運動目標跟蹤過程中出現的遮擋問題,提出了基于目標先驗信息的視覺顯著性遮擋目標跟蹤算法。在粒子濾波框架下,利用目標先驗信息生成視覺顯著圖,并根據粒子區域顏色特征與目標顏色特征模板之間的相似度來判斷遮擋情況。當遮擋發生時,提高特征融合公式中顯著性特征的融合權重,從而充分利用目標未被遮擋部分信息來完成跟蹤。實驗結果表明,利用目標先驗信息的目標跟蹤算法能顯著提升跟蹤遮擋目標的魯棒性。
Abstract:
Key words :

  吳世東

  (中國科學技術大學 自動化系,安徽 合肥 230027)

      摘要:針對運動目標跟蹤過程中出現的遮擋問題,提出了基于目標先驗信息的視覺顯著性遮擋目標跟蹤算法。在粒子濾波框架下,利用目標先驗信息生成視覺顯著圖,并根據粒子區域顏色特征與目標顏色特征模板之間的相似度來判斷遮擋情況。當遮擋發生時,提高特征融合公式中顯著性特征的融合權重,從而充分利用目標未被遮擋部分信息來完成跟蹤。實驗結果表明,利用目標先驗信息的目標跟蹤算法能顯著提升跟蹤遮擋目標的魯棒性。

  關鍵詞:目標跟蹤;先驗信息;粒子濾波;顯著性特征

0引言

  目標跟蹤是計算機視覺領域的重要組成部分,其相關研究成果在三維重構、人臉識別和視頻監控等諸多方面均有廣泛的應用[12]。在目標跟蹤過程中,面臨著復雜環境和目標自身因素的干擾,其中目標局部或全局遮擋對跟蹤魯棒性造成了極大的挑戰。粒子濾波算法[34]是基于貝葉斯濾波和蒙特卡羅模擬的跟蹤算法,在目標跟蹤中應用非常廣泛。

  參考文獻[56]根據跟蹤過程中不同的遮擋情況,提出了遮擋類型的判別方法,通過設定閾值的方式來對遮檔情況進行判斷,在不同的情況下使用不同的跟蹤算法,提高了解決遮擋問題的能力。

  ADAM A等人[7]在2005年CVPR上提出一種基于目標分塊的遮擋目標跟蹤算法。該算法將目標區域分成許多矩形小塊,以此來構造目標特征模板,然后根據目標平滑運動的假設,在目標可能出現的區域檢測目標,匹配度最高的像素點位置作為跟蹤結果。該算法雖然在一定程度上解決了遮擋問題,但是當目標在跟蹤過程中遮擋程度較大時,跟蹤精度不高。

  趙宇宙等人[8]模擬人類視覺中的關注機制,將視覺顯著性應用到目標跟蹤算法中。該方法利用相關對比算法提取目標區域中與背景差異較大的小塊,用于建立目標模板,然后利用每個小塊與目標整體之間的空間映射關系來定位出目標。該算法由于利用了目標局部有效信息,在一定程度上抑制了遮擋對跟蹤魯棒性的影響。

1粒子濾波算法簡介

  蒙特卡羅模擬和貝葉斯濾波是粒子濾波算法的兩個核心組成部分。其大致思想是根據對系統狀態的觀測結果Zt={z0,z1,…zt}來推測出系統的后驗概率分布函數p(xt|z1:t)。根據蒙特卡羅方法,用有限樣本點的求和運算來代替積分運算,從而得到目標狀態xt。

  根據貝葉斯濾波原理,濾波過程分為狀態預測和狀態更新兩個方面。其中,預測是指在不知道目標狀態的情況下,用上一時刻的跟蹤結果來推測出當前時刻目標的大致位置;更新是指用當前時刻的觀測結果Zt來對預測結果進行修正,得到系統后驗概率分布函數p(xt|z1:t)。

  為方便計算,用帶權重的粒子集{xi0:t,wit}N1來近似表示系統概率分布,其中前者為粒子狀態,后者為粒子權重。為了方便計算,根據蒙特卡羅方法,可以用有限樣本點的加權求和來表示目標狀態,其公式為:

  1.png

  式中,xt即為最終跟蹤結果。

2顯著性檢測算法

  2.1算法計算過程

  近年來,視覺顯著性[9]獲得了廣泛關注,出現了很多視覺顯著性檢測算法[1012]。視覺顯著性機制就是模擬人類視覺特性,從海量的視覺信息當中篩選出有用的信息,提高圖像處理效率。

  選取顏色特征來表征目標,為了提高顏色特征對于目標與背景的區分能力,對目標區域的特征提取是在HSV顏色空間中完成的。

  根據目標運動平滑假設,利用二階自回歸模型預測出目標大致位置:

  xt=2xt-1-xt-2(2)

  其中,記xt=[x,y,s]表示目標中心位置坐標和尺度信息。提取出目標區域H通道顏色直方圖,記為Ht={h1,h2,…,hCmax},其中Cmax為H通道bin個數。

  將包含目標先驗信息的目標區域顏色直方圖Ht在整個圖片中反向投影,得到視覺顯著圖SAL,該過程用公式表示為:

  SAL(m,n)=255·hμ,ifc(m,n)∈μ(3)

  2.2算法實驗結果

001.jpg

  圖1為用本文基于目標先驗信息的視覺顯著性檢測算法得到的檢測結果。

  圖2目標跟蹤流程圖從圖1可以看出,在跟蹤過程當中,目標發生了嚴重的自遮擋現象,但這不影響目標區域在顯著圖中的顯著度,從而為跟蹤魯棒性打下了基礎。

3目標跟蹤算法

  3.1特征提取

  根據上節所述,用上節所述方法對序列圖片進行顯著性檢測,得到顯著圖SAL。定義視覺顯著性特征觀測概率為:

  p(yst|xit)=1st∑(m,n)∈sitSAL(m,n)(4)

  其中,sit為第i個粒子所在的區域范圍,st為歸一化參數。

  顏色特征的提取是在更接近人類視覺特性的HSV顏色空間中完成的,假設顏色特征觀測概率為ρ(Hit,Hct)=∑Γμ=1qμpμi,其中,Hit、Hct分別為粒子區間和顏色特征模板直方圖,顏色特征觀測概率實為它們之間的相似度計算結果。

  3.2遮擋判斷和特征融合機制

  對N個粒子的顏色特征觀測概率進行排序,選取觀測概率值較大的前一半個粒子作為衡量模板形變大小的參數,可令ζ=2N∑N/2i=1p(yct|xit)作為遮擋判斷參數。這樣目標是否發生遮擋用式(5)進行判斷:

  5.png

  其中,為1則表示發生遮擋,為0則未遮擋。

  用顏色特征和視覺顯著性特征進行融合跟蹤,特征融合方法采用常用的加性機制,定義融合之后的特征觀測概率如下:

  6.png

  參數γ根據是否發生遮擋來給出不同取值,其與遮擋參數之間的關系如下:

  7.png

  當未發生遮擋時,顏色特征在融合特征中起主要作用,當發生遮擋時,由于目標被遮擋區域信息丟失,顏色特征可靠性降低,此時主要利用視覺顯著性特征來完成跟蹤。

  3.3目標跟蹤算法


002.jpg

  目標跟蹤整體流程如圖2所示。

  具體算法流程如下:

  (1)目標初始化;

  (2)狀態預測和顯著性檢測:

  (a)利用式(2)進行目標和粒子狀態預測;

  (b)利用本文方法對原始圖像進行顯著性檢測,得到顯著圖SAL;

  (3)特征融合和粒子權重計算:

  (a)利用式(5)計算出目標狀態判斷參數Qt,并判斷是否發生遮擋;

  (b)利用公式(6)進行特征融合,得到融合后觀測概率;

  (c)粒子權重計算公式為:

  8910.jpg

  (4)是最后一幀,否則返回步驟(2)。

4實驗結果與分析

  圖4各跟蹤算法中心位置誤差曲線為驗證本文算法的跟蹤魯棒性,選取了3個具有針對性的視頻序列進行測試,重點考察了目標自遮擋和被靜止障礙物遮擋下的跟蹤結果,以及分析在跟蹤過程中視覺顯著性特征所起的作用,并將其與一些經典算法進行了對比實驗,如PF[3]、FT[7]。

003.jpg

  實驗結果如圖3所示,各個序列的ground truth由視頻的提供者給出。

  實驗1針對被靜止障礙物遮擋的目標進行跟蹤,從圖中可以看出,本文跟蹤算法取得了最好的跟蹤結果。其中,FT算法采用固定分塊的跟蹤方法對目標模板精度要求太高,其跟蹤誤差會隨著時間的推移被逐漸放大;采用單一顏色特征進行跟蹤的PF算法雖然能應對一定程度的遮擋,但是當遮擋程度過大時,將會發生跟蹤漂移現象;本文采用的基于目標先驗信息的視覺顯著性跟蹤算法取得了不錯的跟蹤精度,這是因為本文算法能夠在遮擋發生時,利用顯著性檢測算法檢測出目標未被遮擋部分區域,然后讓魯棒性更強的顯著性特征再完成跟蹤。

  實驗2和實驗3針對發生自遮擋的目標進行跟蹤,本文算法依然表現良好。從圖3可以直觀看出,當目標發生自遮擋時,目標的表觀顏色發生了劇烈的變化,這導致采用單一顏色特征進行跟蹤的FT算法和PF算法無法適應,最終影響了它們的跟蹤精度。本文算法在目標發生自遮擋的過程中,由于顯著性檢測過程融入了目標先驗信息,從而實現了魯棒跟蹤。

004.jpg

  圖4為各跟蹤算法中心位置誤差曲線圖。從圖4可以看出,本文算法取得了較好的跟蹤效果,跟蹤誤差一直穩定在一個較小的范圍里面,這主要得益于以下兩點:一是本文提出顯著性檢測算法在跟蹤過程中融入了目標先驗信息,從而使得目標區域顯著度較高,提高了顯著性特征對目標的表達能力;二是本文采用的遮擋判斷方法和特征融合算法能夠根據遮擋情況來自適應地選擇跟蹤策略,提升了算法應對遮擋問題的能力。

5結論

  為應對跟蹤過程中的遮擋問題,本文對遮擋類型做了詳細的說明和分析,并在此基礎上構建了基于目標先驗信息的視覺顯著性檢測和跟蹤算法。本文跟蹤算法通過視覺顯著性特征可以對該部分信息進行充分利用,從而避免了跟蹤失敗;當目標發生了一定程度的自遮擋時,顯著性特征能夠先于顏色特征做出反應,使得目標區域在顯著圖中的顯著度依然較高,從而為實現魯棒跟蹤奠定了基礎。

參考文獻

  [1] 任加勒, 孟利民. 基于數字噴泉碼的視頻監控系統研究[J]. 微型機與應用, 2015,34(10): 4447.

  [2] 陳嫻, 彭宏, 吳海巍,等.視頻監控在高速路作業調度系統上的應用[J]. 微型機與應用, 2015, 34(1): 2022.

  [3] PEREZ P, HUE C, VERMAAK J, et al. Colorbased probabilistic tracking[C] the 7th European Conference on Computer Vision. Copenhagen: Springer Berlin Heidelberg, 2002: 661675.

  [4] 牛德智,陳長興,班斐,等. 基于變步長重采樣的非高斯非線性目標跟蹤[J].電子技術應用, 2014, 40(8): 129132.

  [5] SAKARI V, SETHI I K. Feature point correspondence in the presence of occlusion[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12(1): 8791.

  [6] RANGARAJAN K, SHAH M. Establishing motion correspondence[C] IEEE Conference on Computer Vision and Pattern Recognition, 1991: 103108.

  [7] ADAM A, RIVLIN E, SHIMSHONI I. Robust fragmentsbased tracking using the integral histogram[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2006:798805.

  [8] 趙宇宙, 陳宗海, 顯著子區域在線選擇的目標魯邦跟蹤[J]. 控制與決策, 2014, 29(10): 17881792.

  [9] BORJI A, ITTI L. Stateoftheart in visual attention modeling[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 185207.

  [10] ITTI L, KOCH C, NIEBUR E. A model of saliencybased visual attention for rapid sceneanalysis[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence, 1998, 20(11): 12541259.

  [11] Cheng Mingming, Zhang Guoxin, MITRA N J, et al. Global contrast based salient region detection[C] IEEE Conference on Computer Vision and Pattern Recognition, 2011: 409416.

  [12] 錢生, 林明強, 陳宗海, 等, 基于條件隨機場和圖像分割的顯著性檢測[J]. 自動化學報, 2015, 41(4): 711724.


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 狠狠色噜噜狠狠狠狠69| 丰满岳乱妇一区二区三区| 黄色毛片小视频| 快点cao我要被cao烂了男女| 人妻少妇精品视频专区| 日韩色图在线观看| 女同恋のレズビアンbd在线| 亚洲一区二区精品视频| 男女乱婬真视频| 国产三级免费观看| 91精品导航在线网址免费| 戍人视频fc2最近一周| 久久精品国产久精国产| 男人的天堂影院| 国产69精品久久久久777| 8x成人永久免费视频| 婷婷影院在线观看| 久久久久亚洲Av片无码v | 影音先锋男人看片资源| 亚洲精品偷拍无码不卡av| 一边摸一边叫床一边爽| 毛片在线免费播放| 君子温如玉po| 黄色免费短视频| 天天爱天天做天天爽夜夜揉| 久久久久无码精品国产| 欧美高清在线精品一区二区不卡| 国产主播福利精品一区二区| awyy爱我影院午夜| 国语对白清晰好大好白| 久久99精品九九九久久婷婷| 欧美理论片在线观看一区二区| 国产AV日韩A∨亚洲AV电影| 精品国产无限资源免费观看| 国产香蕉国产精品偷在线| 一本一本久久a久久精品综合| 最好看的2018中文字幕国语免费| 免费中文字幕在线观看| 老师那里好大又粗h男男| 国产成人女人视频在线观看| 在线看片你懂的|