BGM.txt
上传用户:yuzhuan
上传日期:2013-03-16
资源大小:3596k
文件大小:20k
源码类别:

2D图形编程

开发平台:

Visual C++

  1. 一种基于背景模型的运动目标检测与跟踪算法
  2. 一种基于背景模型的运动目标检测与跟踪算法
  3. 刘亚艾海舟徐光佑
  4. (清华大学计算机科学与技术系,智能技术与系统国家重点实验室,北京 100084) 
  5. 摘要
  6. 本文提出了一种静止摄像机条件下的运动目标检测与跟踪算法。它以一种改进的自适应
  7. 混合高斯模型为背景更新方法,用连通区检测算法分割出前景目标, 以Kalman 滤波为运动
  8. 模型实现对运动目标的连续跟踪。在目标跟踪时,该算法针对目标遮挡引起的各种可能情况
  9. 进行了分析, 引入了对运动目标的可靠性度量, 增强了目标跟踪的稳定性和可靠性。在对多
  10. 个室外视频序列的实验中, 该算法显示了良好的性能,说明它对于各种外部因素的影响, 如
  11. 光照变化、阴影、目标遮挡等,具有很强的适应能力。
  12. 关键词
  13. 背景模型,混合高斯模型,Kalman 滤波,运动目标检测与跟踪
  14. 1 引言
  15. 视觉监视是指在一个繁忙环境中对人和车辆等进行实时的观察,并给出对它们行为和动
  16. 作的描述。这一技术包括了运动目标的检测、跟踪、目标分类和行为理解等方面,涉及到计
  17. 算机视觉、模式识别和人工智能领域的许多核心课题,是一个具有挑战性的困难问题。近年
  18. 来随着集成电路和计算机技术的迅猛发展,视觉监视系统所要求的硬件设备成本大大降低, 
  19. 因此它获得了日益广泛的研究与应用。许多关于视觉监视的大规模研究项目已经在美国、欧
  20. 洲和日本展开,同时它也成为许多国际学术会议关注的重要主题。已有多篇论著详细介绍了
  21. 针对不同应用条件的视觉监视系统。Wren 等的Pfinder 是一个利用颜色和形状特征对大视角
  22. 范围内的人进行跟踪的实时系统[1]。Olson 等介绍了一种更通用的运动物体检测和事件识别
  23. 系统[2]。它通过检测帧间图像变化来发现运动物体,在跟踪中上使用了一阶预测和最近邻
  24. 匹配技术。Haritaoglu 等的W4 是一个可以在室外对人进行实时检测和跟踪的视觉监视系统
  25. [3]。它将外形分析与跟踪技术相结合来跟踪人体各个部分的位置并为人的外形建立模型。
  26. Collins 等介绍了由CMU 和Sarnoff 公司合作研究的一种视觉监视系统[4]。它使用多个相互
  27. 协作的摄像机在复杂环境里对人和车进行连续的跟踪,并对目标类别和行为进行分析。
  28. 运动目标检测与跟踪处于整个视觉监视系统的最底层,是各种后续高级处理如目标分
  29. 类、行为理解等的基础。运动目标检测系指从视频流中实时提取目标,一般是确定目标所在
  30. 区域和颜色特征等。目标检测的结果是一种“ 静态”目标—— 前景目标, 由一些静态特征所
  31. 描述。运动目标跟踪则指对目标进行连续的跟踪以确定其运动轨迹。受跟踪的目标是一种“动
  32. 态”目标—— 运动目标, 与前景目标相比, 描述它的特征中多了动态特征( 如运动参数等)。
  33. 针对静止摄像机的情况,本文的运动目标检测与跟踪算法流程如图1 所示。我们通过为
  34. 静止背景建模来检测前景点。具体的背景模型以Stauffer 等提出的自适应混合高斯模型[5] 
  35. 为蓝本,并对其作了部分改进以更好地处理实际背景发生变化的情形。算法中采用一种可靠
  36. 的连通区域检测算法完成前景目标的分割。目标跟踪时则通过匹配目标的位置、大小、形状
  37. 和颜色等特征,建立运动目标与前景目标间的对应关系。算法中考虑了跟踪中多个目标相互
  38. 遮挡的问题,分析了几种可能结果并分别加以处理。我们还为运动目标引入了可靠性度量以
  39. 使目标跟踪过程更加稳定和可靠。
  40. 第1 页
  41. 一种基于背景模型的运动目标检测与跟踪算法
  42. 输入视频
  43. 背景模型目标分割目标跟踪
  44. 前景点集前景目标运动目标
  45. 图1运动目标检测与跟踪处理流程
  46. 2 背景模型
  47. 视觉监视的第一步工作是将前景目标所在的区域从背景中分割提取出来即完成前景和
  48. 背景的分离。这一工作一般有三种实现方法:背景消减、帧间运动分析和光流计算。后两种
  49. 方法都可以用于运动摄像机的情形,对动态环境的适应能力比较强但帧间运动分析的结果
  50. 精度不高,难以获得目标所在区域的精确描述[6];光流计算的复杂度则非常高,难以符合
  51. 视觉监视系统实时处理的要求[7]。背景消减适用于摄像机静止的情形。它为静止背景建立
  52. 背景模型,通过将当前图像帧和背景模型进行比较,确定出亮度变化较大的区域,即认为是
  53. 前景区域[1][3]。这种方法的计算速度很快,可以获得关于运动目标区域的完整精确的描述,
  54. 但对场景中光照条件、大面积运动和噪声比较敏感在实际应用中需采用一定的算法进行背
  55. 景模型的动态更新,以适应环境的变化。出于处理速度和算法性能及应用场合的考虑,本文
  56. 和大部分视觉监视系统一样,选择了建立背景模型作为检测前景区域的方法。
  57. 按照所处理背景的自身特性,背景模型可分为单模态和多模态两种。前者在每个背景点
  58. 上的颜色分布比较集中,可以用单个概率分布模型来描述(即只有一个模态),后者的分布
  59. 则比较分散,需要多个分布模型来共同描述(具有多个模态)。自然界中的许多景物和很多
  60. 人造物体,如水面的波纹、摇摆的树枝、飘扬的旗帜、监视器荧屏等,都呈现出多模态的特
  61. 性[5]。最常用的描述背景点颜色分布的概率分布是高斯分布(正态分布),下面就单模态和
  62. 多模态两种情形下的背景模型分别加以说明和讨论。
  63. 为叙述方便,我们用η(x, μ, Σ) 来表示均值为μ 、协方差矩阵为Σ 的高斯分布的概率密
  64. 度函数。由于背景模型中对各个图像点的处理是完全独立的,所以若不作特殊说明,本文所
  65. 有关于背景模型的描述都系针对同一图像点位置而言。
  66. 2.1 单高斯分布背景模型
  67. 单高斯分布背景模型[4]适用于单模态背景情形,它为每个图像点的颜色分布建立了用
  68. 单个高斯分布表示的模型η(x,μt , Σt ) ,其中下标t 表示时间。设图像点的当前颜色度量为
  69. Xt ,若η( Xt ,μt , Σt ) ≤ Tp (这里Tp 为概率阈值),则该点被判定为前景点,否则为背景点
  70. (这时又称Xt 与η(x,μt , Σt ) 相匹配)。在实际应用中,可以用等价的阈值替代概率阈值。
  71. 如记dt = Xt .μt ,则可以根据dtT Σt 
  72. .1dt 的值设置相应的前景检测阈值。在常见的一维情
  73. 形中,以σt 表示均方差,则常根据dt / σt 的取值设置前景检测阈值:若dt / σt > T ,则该
  74. 点被判定为前景点,否则为背景点。
  75. 单高斯分布背景模型的更新即指各图像点高斯分布参数的更新。引入一表示更新快慢的
  76. 常数——更新率α ,则该点高斯分布参数的更新可表示为
  77. ) .
  78. μ = (1. 
  79. μ
  80. α +α. d (1)
  81. t +1tt 
  82. 第2 页
  83. 一种基于背景模型的运动目标检测与跟踪算法
  84. α
  85. Σ t + 1= (1.α ) . .+Σ dtdtT (2)
  86. 2.2 多高斯分布背景模型
  87. 多模态背景的情形则需要用多个分布来共同描述一个图像点上的颜色分布。Stauffer 等
  88. [5]提出了一种自适应混合高斯模型,对每个图像点采用了多个高斯模型的混合表示。设用
  89. 来描述每个点颜色分布的高斯分布共有K 个,分别记为η (x ,μ ,, Σ it ) , i = ,...,2,1 K 。各
  90. it , 
  91. . 1/ 2
  92. 1 )和优先级it 
  93. Σ
  94. 高斯分布分别具有不同的权值w it(
  95. ,
  96. ∑ 
  97. ,
  98. it
  99. pw
  100. ,它们总是按
  101. ,
  102. it
  103. 照优先级从高到低的次序排序。取定适当的背景权值部分和阈值,只有在此阈值之内的前若
  104. 干个分布才被认为是背景分布,其它则是前景分布。在检测前景点时按照优先级次序将Xt 
  105. 与各高斯分布逐一匹配,若没有表示背景分布的高斯分布与Xt 匹配,则判定该点为前景点, 
  106. 否则为背景点。
  107. 多高斯分布背景模型的更新较为复杂因为它不但要更新高斯分布自身的参数,还要更
  108. 新各分布的权重、优先级等。若检测时没有找到任何高斯分布与Xt 匹配,则将优先级最小
  109. 的一个高斯分布去除,并根据Xt 引入一个新的高斯分布,并赋予较小的权值和较大的方差, 
  110. 然后对所有高斯分布重新进行权值归一化处理。若第m 个高斯分布与Xt 匹配,则对第i 个
  111. 高斯分布的权值更新如下
  112. (1.β) . wt + ,1 i +β. wt + ,1 ii = m 
  113. (3)
  114. =
  115. t + ,1 i 
  116. ..
  117. .
  118. (1.β ) . wt + ,1 i otherwise 
  119. 其中β 是另一个表示背景更新快慢的常数——权值更新率。(3)表明只有与Xt 相匹配的高
  120. 斯分布的权值才得到提高,其它分布的权值都被降低。另外,相匹配的高斯分布的参数也按
  121. 照(1)、(2)被更新。在更新完高斯分布的参数和各分布权值后,还要对各个分布重新计算
  122. 优先级和排序,并确定背景分布的数目。
  123. 2.3 背景模型的更新
  124. 背景模型的更新策略是背景模型设计中最关键的技术。在模型更新时应当注意如下两条
  125. 原则:
  126. (A) 背景模型对背景变化的响应速度要足够快。背景的变化可能是①由光照变化等因素
  127. 引起的背景本身颜色的变化,也可能是②背景区域的变化如前景和背景的相互转
  128. 化,即某个物体由运动转为静止或由静止转为运动(如停车场的汽车停下或开走) 
  129. 而导致前景物体被“融入”到背景中或背景的一部分“逃逸”而出转而成为前景。
  130. 如果背景模型不能迅速跟上实际背景的变化检测结果中就会出现大范围的噪声或
  131. 不合理的长时间静止前景物体(如图2-a 中静止的汽车启动后留下的“影子”)。
  132. (B) 背景模型对运动目标要有较强的抗干扰能力。因为在背景模型的更新过程中对背
  133. 景模型上的每点而言都是受到了一个颜色序列的“训练”,不论实际场景中该点是
  134. 第3 页
  135. 一种基于背景模型的运动目标检测与跟踪算法
  136. 处于静止背景上还是在运动目标上。静止的背景或目标的这种“ 训练”是我们所希
  137. 望的,而运动目标的“训练”则是不希望看到的。特别是当运动物体尺度较大或运
  138. 动较慢时,这种长时间的“训练”可能会引起错误的检测结果, 如在运动目标的尾
  139. 部产生“空洞”,特别是两个颜色相近的物体交错而过时更加明显(图2-b)。
  140. (a)汽车启动后留下的“影子(b)行人对汽车的影响
  141. 图2 背景模型更新中的一些问题
  142. 在前文描述的单/多高斯分布背景模型中, 更新率α 和权值更新率β 都反应了模型更新
  143. 的速度快慢。在单高斯分布背景模型中,较大的α 符合原则(A)却不符合原则(B)的要
  144. 求,较小的α 则刚好相反。实验表明,很多时候无法找到一个合适的α 能同时满足两方面
  145. 的要求。一种比较容易想到的改进是赋予背景点较大的更新率,而赋予前景点较小的更新率。
  146. 这种更新方式可以符合原则(B), 但很多时候对(A) 中情形②的效果很差, 因为这时静止
  147. 的前景点会由于更新率过小而很难被“融入”到背景中。为了解决这个问题, 我们将背景模
  148. 型更新与后面的跟踪结果相结合,赋予背景点和静止的前景点(静止目标)较大的更新率, 
  149. 而赋予运动的前景点(运动目标) 较小的更新率。这实际上是用运动目标跟踪的结果来指导
  150. 更新。经过这种改进可以在保护背景模型不受运动目标影响的同时迅速响应背景的变化。
  151. 多高斯分布的背景模型在这些问题上的表现要比单高斯分布背景模型好得多。因为它本
  152. 身有多个高斯分布,判定前景/背景并不单单依赖于某个高斯分布,更依赖于各个分布的权
  153. 值和优先级。对(A) 中的情形②, 它可以通过引入新的高斯分布解决;对(B), 由于只有
  154. 相匹配的高斯分布的高斯参数才得到更新,所以受运动物体的干扰也不是那么严重。但它的
  155. 不足依然存在,因为它并没有对(A)中静止目标的情况作特别处理,也没有考虑到(B) 
  156. 中的不同“ 训练” 之间的区别。在测试实验中, 它对背景变化的响应速度比较慢,大而慢的
  157. 运动目标仍然容易带来“空洞”。我们对它的改进与对单高斯分布背景模型的改进相似,仍
  158. 然是对背景点、静止前景点、运动前景点的更新率区别对待, 只是作用的参数变成了权值更
  159. 新率β ,而不是高斯分布参数的更新率α 。
  160. 3 运动目标分割
  161. 要获得关于各前景目标的特征描述,就必须先将它们从前景点集中逐一分割出来。前景
  162. 目标分割的依据通常是目标的空间连续性和颜色一致性。由于后者很多时候并不可靠,所以
  163. 大部分视觉监视系统都选择了根据空间连续性来分割目标的连通区域检测算法[3][4]。
  164. 常用的连通检测算子有4-连通和8-连通两种[8]。由于连通关系是一种等价关系,所以
  165. 连通区域分割算法实质上就是将前景点集按连通关系划分为若干个等价类(连通集)。初始
  166. 数据中的噪声(离散的噪声前景点和目标区域中的小孔等)会给连通区域检测带来不良影响, 
  167. 第4 页
  168. 一种基于背景模型的运动目标检测与跟踪算法
  169. 因此在进行连通集划分前一般都要先进行去噪处理。这一步可以通过形态学运算实现,利用
  170. 腐蚀和膨胀算子分别去除孤立的噪声前景点和填补目标区域的小孔。但这种处理也会影响目
  171. 标原本的边缘和形状,特别是目标本身尺度较小的时候,它的边缘细节很容易为这种去噪处
  172. 理所破坏。
  173. (从左到右依次为:初始前景点集F、扩张集Fe、收缩集Fc 和分割结果)
  174. 图3 目标分割示意图
  175. 为了解决这个问题,本文算法对通常的连通检测算法作了一些改动,将去噪后连通检测
  176. 的结果重新返回到初始前景点集上,以恢复其固有的边缘。记由背景模型消减得到的前景点
  177. 集为F,我们先对F 分别进行扩张和收缩处理,得到扩张集Fe 和收缩集Fc。扩张和收缩可
  178. 以通过腐蚀和膨胀来实现, 具体的尺度可根据实际应用条件来确定。可以认为扩张集Fe 和
  179. 收缩集Fc 分别是对初始前景点集F 进行填补小孔和去除孤立噪声点的结果,所以应有
  180. Fc < F < Fe 。然后以收缩集Fc 作为起始点,在扩张集Fe 上检测连通区域,检测结果记为
  181. {Rei , i = ,...,2 ,1 N}。最后将检测所得的连通区域重新投影到初始前景点集F 上,得到最后
  182. ,的连通检测结果{Ri = Rei I i F = ,...,2 ,1 N}。图3 是对一行人应用上述连通区域检测算法
  183. 的示意图,从图中可以看出这种分割算法既保持了目标的完整性,避免了噪声前景点的影响, 
  184. 又保留了目标的边缘细节部分。比较Rei 和Ri,还可以得到目标的边缘Bi = Rei . Ri 。
  185. 在分割出目标区域后,即可以提取前景目标的静态特征。本文中使用的静态目标特征包
  186. 括外接矩形大小、面积、长宽比、中值点位置、颜色投影直方图等。根据具体应用场合这些
  187. 特征的实际取值情况,可以进行适当的目标验证,以增强目标分割结果的可靠性。
  188. 4 运动目标跟踪
  189. 运动目标跟踪的目的是确定各运动目标的运动轨迹,其关键是在检测所得的静态前景目
  190. 标和受跟踪的动态运动目标之间建立对应关系[3]。这种对应关系的建立可以通过目标特征
  191. 匹配来实现。一般被选择用于匹配的特征包括那些与物理运动关系密切的特征,如位置、大
  192. 小等,以及目标的形状和颜色等。匹配时可以根据各特征的重要性设定不同的权重系数。
  193. 由于运动目标是随时间变化的, 所以关于它的特征描述也是动态的。从时间上说, 运动
  194. 目标总是比即将与它匹配的前景目标落后一帧,所以在匹配前要先根据运动目标的运动历史
  195. 记录预测它在下一帧中的特征。最常用的被预测特征是位置信息,预测时所用的运动模型则
  196. 有一阶运动模型(速度恒定)、二阶运动模型(加速度恒定),以及更为复杂的高阶模型如
  197. Kalman 滤波器[9]等。我们的算法中采用了二阶Kalman 滤波器模型作为目标的运动模型。
  198. 在对预测后的运动目标和前景目标进行匹配时,还可以利用图像块匹配来精确定位目标的位
  199. 置。一旦为运动目标找到了相对应的前景目标,则需要对其特征和运动历史记录进行适当的
  200. 更新。
  201. 运动目标跟踪中的一个难题是对多个目标间相互遮挡关系的处理,因为这时很容易出现
  202. 第5 页
  203. 一种基于背景模型的运动目标检测与跟踪算法
  204. 多个实际的运动目标因为重叠而被分割为一个前景目标的情况,直接影响跟踪处理。本文分
  205. 析了目标遮挡的几种可能情况,将运动目标和前景目标间的对应关系分为6 类并作了分别处
  206. 理:
  207. ... 出现(0 到1): 一个新运动目标开始出现。根据该前景目标初始化一运动目标,
  208. 设定初始目标权值,并置合并/分离计数为0; 
  209. ... 消失(1 到0): 一个运动目标正在消失。用该运动目标的预测目标更新它,降低
  210. 该目标的权值,置合并/分离计数为0; 
  211. ... 理想跟踪(1 到1): 没有发生遮挡的正常跟踪。用相应的前景目标更新该运动目
  212. 标。根据该目标的速度判断其是处于运动还是静止状态(如前文所述,我们对静
  213. 止目标作了特殊处理,以改善背景模型对背景变化的响应能力),置合并/分离计
  214. 数为0; 
  215. ... 合并(n 到1): 多个目标相互间出现遮挡的情形。将各运动目标的合并/分离计数
  216. 增1,若这些目标速度相近且合并/分离计数足够大, 则将它们合并成一个大运动
  217. 目标——由该前景目标初始化一新运动目标,并继承原先众运动目标的动态特征;
  218. 否则,各目标仍用各自经修正的预测结果进行更新;
  219. ... 分离(1 到n): 与合并相反的过程。将各运动目标的合并/分离计数减1,若合并/ 
  220. 分离计数足够小,则将该运动目标分为多个小运动目标——由这些前景目标初始
  221. 化多个运动目标,并继承原目标的动态特征;否则,将这些前景目标合并成一个
  222. 大前景目标并以之更新该运动目标;
  223. ... 复杂遮挡(m 到n): 这种复杂遮挡的情况很难处理,本文也不对此作深入探讨,
  224. 而是采取一种简单的处理办法:去除原来的m 个运动目标, 再由这些前景目标各
  225. 自初始化一新运动目标。
  226. 这里的目标权值是我们引入的表示运动目标可靠性的度量。根据它由高到低的次序运动
  227. 目标被分为可见(可靠的运动目标,参加目标匹配)、活动(不可靠的运动目标,但也参加
  228. 目标匹配)和非活动(不参加目标匹配)三类, 只有当某运动目标连续出现足够多次才会被
  229. 认为是可靠的,反之可靠的运动目标也要连续消失多次才会被认为确实消失了。这种处理可
  230. 以减弱前景目标误检测和漏检测的影响,使运动目标的跟踪过程更加稳定。
  231. 5 实验结果与分析
  232. 我们使用固定在三脚架上的摄像机在室外摄取了若干视频序列,并依照本文的算法进行
  233. 了运动目标检测和跟踪处理。这些视频图像帧的大小都为320×240, 真彩色格式。在普通
  234. PC 机(Pentium III 600 Hz CPU) 上, 本文的目标检测与跟踪算法达到了15 fps 的处理速度。
  235. 图4 是对背景模型的更新策略改进前后的实验对比结果。其中最顶行为视频图像帧,第
  236. 2、第3 行分别是单高斯分布背景模型在改进前后的检测结果,第4、第5 行则分别是多高
  237. 斯分布背景模型在改进前后的检测结果。在(a) 中一辆自行车由静止开始运动并留下了“ 影
  238. 子”(b) 中一辆汽车和一行人相对而过,(c)则是(a) 中“影子”消失或即将消失的时刻
  239. (对改进前的单高斯分布模型,经过近千帧“影子”仍然没有消失的迹象)。本例将两种背
  240. 景模型在改进前的更新率都设置得比较小( 刚好没有出现图2-b 中的“空洞”), 因此评价背
  241. 景模型的性能主要依据它们对背景变化的响应速度快慢。从图中可以看出, 在对背景、静止
  242. 目标、运动目标使用不同的更新策略后,运动目标“影子” 的消失变快了( 单高斯分布背景
  243. 模型中从1000 帧之后提前到第16 帧,多高斯分布背景模型也从第47 帧提前到第15 帧), 
  244. 说明背景模型对背景变化的响应速度有了明显提高。
  245. 第6 页
  246. 一种基于背景模型的运动目标检测与跟踪算法
  247. (a)自行车留下“影子”(b)行人与汽车交错而过(c)自行车“影子”消失
  248. 图4 背景模型改进前后的检测结果
  249. ( 第1 行为视频图像帧,第2、第3 行分别是单高斯分布背景模型在改进前后的检测结果, 
  250. 第4、第5 行则分别是多高斯分布背景模型在改进前后的检测结果。) 
  251. 图5 是对一前景点集进行目标分割的结果。(a) 是待分割的前景点集;(b) 是既没有扩
  252. 张也没有收缩的检测结果, 受噪声影响较严重, 不但将许多噪声前景点分割为目标, 而且将
  253. 行人分割为两个目标(头部和躯体)(c) 是做了扩张但没有做收缩的结果,保持了分割后
  254. 行人的完整性;(d) 是没有做扩张但做了收缩的结果,去除了孤立前景噪声点的影响;(e) 
  255. 是既做了扩张也做了收缩的结果,不但避免了将孤立噪声点分割为前景目标,同时保持了目
  256. 标的完整性。比较这四种检测结果可以清楚看出扩张和收缩两个步骤分别对小孔和小噪声前
  257. 景点的处理效果。
  258. a)待分割前景(b)普通检测(c)收缩(d)扩张(e)扩张+收缩
  259. 图5 前景目标分割
  260. 图6 是对一个目标间存在遮挡的视频序列进行目标跟踪的结果。该例中行人从左向右行
  261. 走,汽车则从右向左行驶, 相遇时汽车的一部分被行人所遮挡。图中用不同的颜色和数字标
  262. 记出被跟踪的汽车和行人的运动情况。在遮挡发生时我们依靠运动预测和图像块匹配来估计
  263. 汽车和行人的准确位置,对它们的姿态则仍认为与遮挡前相同。这种处理方法对刚体( 如汽
  264. 车)的效果比较好, 对形变体( 如行人)则会显得很生硬。如果物体的运动具有比较明显的
  265. 周期性特征,可以通过分析其运动周期性[10]来估计在不同时刻的姿态。
  266. 6 结论
  267. 本文提出了一种静止摄像机条件下基于背景模型的运动目标检测和跟踪算法。算法中采
  268. 第7 页
  269. 一种基于背景模型的运动目标检测与跟踪算法
  270. 用的自适应背景模型对背景、静止目标和运动目标三者采取了不同的更新策略,既能减弱运
  271. 动目标对背景模型的影响,又可以迅速响应实际背景的变化。在目标分割时对普通的连通区
  272. 域检测算法作了改进以保护目标的边缘细节部分,跟踪中则考虑了目标跟踪中的相互遮挡关
  273. 系和前景目标检测的可靠性问题。实验表明, 该算法对检测和跟踪过程中的光照变化、各种
  274. 噪声等都有较强的处理能力和较好的处理效果。
  275. 目前的跟踪算法可以比较好地处理两个运动目标相互遮挡的情况,为进一步考虑更多目
  276. 标之间存在复杂遮挡情形下的跟踪问题提供了有益的启示。这也是我们今后进一步研究的方
  277. 向。
  278. 图6 遮挡条件下的运动目标跟踪
  279. 参考文献
  280. [1] C. Wren, A. Azarbayejani, T. Darrell, and A. Pentland, “Pfinder: Real-time Tracking of the 
  281. Human Body”, IEEE Trans. PAMI, vol. 19, no. 7, pp. 780-785, Jul. 1997 
  282. [2] T. Olson, F. Brill, “Moving Object Detection and Event Recognition Algorithms for Smart 
  283. Cameras”, Proc. DARPA Image Understanding Workshop, May 1997 
  284. [3] I. Haritaoglu, D. Harwood and L. S. Davis, “W4: Rea-Time Surveillance of People and 
  285. Their Activities,” IEEE Trans. PAMI, vol. 22, no. 8, pp. 809-830, Aug. 2000 
  286. [4] R. T. Collins, A. J. Lipton and T. Kanade, “A System for Video Surveillance and 
  287. Monitoring”, Proc. Am. Nuclear Soc.(ANS) Eighth Int’l Topical Meeting Robotic and 
  288. Remote Systems, Apr. 1999 
  289. [5] C. Stauffer, W. E. L. Grimson, “Learning Patterns of Activity Using Real-Time Tracking,” 
  290. IEEE Trans. PAMI, vol.22, no.8, pp. 747-757, Aug. 2000 
  291. [6] C. Anderson, P. Burt, and G. Can der Wal. “Change Detection and Tracking Using Pyramid 
  292. Transformatin techniques”, Proc. SPIE–Intelligent Robots and Computer Vision, vol. 579, 
  293. pp. 72-78, 1985 
  294. [7] J. Barron, D. Fleet, and S. Beauchemin, “Performance of Optical Flow Techniques”, 
  295. International Journal of Computer Vision, vol. 12, no. 1, pp. 42-77, 1994 
  296. [8] K. R. Castleman, Digital Image Processing, Prentice Hall & 清华大学出版社, 1998 
  297. [9] A. M. Tekalp. Digital Video Processing. Rochester, NY, 1995 
  298. [10] F. Liu and R. W. Picard, “Finding Periodicity in Space and Time”, Proc. Int’l Conf. 
  299. Computer Vision, pp. 376-383, Jan. 1998 
  300. 第8 页
  301. 一种基于背景模型的运动目标检测与跟踪算法
  302. 附:
  303. 英文摘要
  304. Moving Object Detection and Tracking Based on Background Subtraction 
  305. Liu Ya Ai Haizhou Xu Guangyou 
  306. Computer Science and Technology Department, Tsinghua University 
  307. State Key Laboratory of Intelligent Technology and Systems, Beijing 100084 
  308. liuya@media.cs.tsinghua.edu.cn, {ahz, xgy-dcs}@mail.tsinghua.edu.cn 
  309. Abstract An approach to detect and track moving objects with a static camera is presented in 
  310. this paper. A modified mixture Gaussian model is used as the adaptive background updating 
  311. method. Foreground objects are segmented based on an improved binary connected component 
  312. analysis. Kalman filtering is used in object tracking. To deal with the problem of occlusion 
  313. between objects in tracking, various situations are analyzed and a measure of reliability of moving 
  314. objects is adopted which makes the tracker more effective. Experiments on several outdoor video 
  315. streams that shown convictive object detection and tracking performance demonstrate its strong 
  316. adaptability to lighting changes, shadows and occlusions. 
  317. Keywords background modeling, mixture Gaussian model, Kalman filtering, moving object 
  318. detection and tracking 
  319. 作者简介
  320. 刘亚男,1976 年生,现为清华大学计算机应用专业硕士研究生,主要研究方向为视频
  321. 运动稳定、视觉监视;
  322. 艾海舟男,1964 年生,现为清华大学计算机系副教授,研究领域为移动机器人、计算机
  323. 视觉、人脸检测、模式识别等;
  324. 徐光佑男,1940 年生,现为清华大学计算机系教授、博士生导师,研究领域为计算机视
  325. 觉、人脸识别、多媒体信息处理等。
  326. 第9 页