注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

dp: 生活的脚步,进步的点滴...

Cam、DSP、FPGA、PM、Life、More ...

 
 
 

日志

 
 

背景建模与前景检测之三(Background Generation And Foreground Detection Phase 3)  

2011-08-01 19:24:13|  分类: 默认分类 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |

作者:王先荣

    在上一篇文章里,我尝试翻译了《Nonparametric Background Generation》,本文主要介绍以下内容:如何实现该论文的算法,如果利用该算法来进行背景建模及前景检测,最后谈谈我的一些体会。为了使描述更加简便,以下将该论文的算法及实现称为NBGModel。
1 使用示例
    NBGModel在使用上非常的简便,您可以仿照下面的代码来使用它:

//初始化NBGModel对象
NBGModel nbgModel = new NBGModel(320, 240);
//训练背景模型
nbgModel.TrainBackgroundModel(historyImages);
//前景检测
nbgModel.Update(currentFrame);
//利用结果
pbResult.Image = nbgModel.ForegroundMask.Bitmap;
//释放对象
nbgModel.Dispose();
背景建模与前景检测之三(Background Generation And Foreground Detection Phase 3) - dp - dp: 生活的脚步,进步的点滴...

下面是更加完整的示例:

背景建模与前景检测之三(Background Generation And Foreground Detection Phase 3) - dp - dp: 生活的脚步,进步的点滴...背景建模与前景检测之三(Background Generation And Foreground Detection Phase 3) - dp - dp: 生活的脚步,进步的点滴...更加完整的示例
using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Windows.Forms;
using System.Drawing.Imaging;
using System.Diagnostics;
using System.Runtime.InteropServices;
using Emgu.CV;
using Emgu.CV.Structure;
using Emgu.CV.CvEnum;
using System.Threading;

namespace ImageProcessLearn
{
public partial class FormForegroundDetect2 : Form
{
//成员变量
//public const string ImageFilePathName = @"D:\Users\xrwang\Desktop\背景建模与前景检测\PETS2009\Crowd_PETS09\S0\City_Center\Time_12-34\View_001\frame_{0:D4}.jpg";
public const string ImageFilePathName = @"E:\PETS2009\S0_City_Center\Time_12-34\View_002\frame_{0:D4}.jpg"; //图像文件的路径信息,其中的{xxx}部分需要被实际的索引数字替换
public const int ImageWidth = 768; //图像的宽度
public const int ImageHeight = 576; //图像的高度
public const int MaxImageFileIndexNumber = 794; //最大的图像索引数字
private Action action = Action.Stop; //当前正在执行的动作
private NBGModel nbgModel = null; //非参数背景模型
private Thread threadTrainingBackground = null; //用于训练背景的工作线程
private Thread threadForegroundDetection = null; //用于前景检测的工作线程

public FormForegroundDetect2()
{
InitializeComponent();
}

//开始训练背景
private void btnStartTrainingBackground_Click(object sender, EventArgs e)
{
threadTrainingBackground
= new Thread(new ThreadStart(TrainingBackground));
threadTrainingBackground.Start();
action
= Action.StartTrainingBackground;
SetButtonState();
}

//训练背景
private void TrainingBackground()
{
//构造非参数背景模型对象
if (nbgModel != null)
nbgModel.Dispose();
NBGParameter param
= (NBGParameter)this.Invoke(new GetNBGParameterDelegate(GetNBGParameter));
nbgModel
= new NBGModel(ImageWidth, ImageHeight, param);
//添加用于训练的图像
for (int idx = 0; idx < param.n; idx++)
{
if (action != Action.StartTrainingBackground)
return;
Image
<Bgr, Byte> image = new Image<Bgr, byte>(string.Format(ImageFilePathName, idx));
nbgModel.AddHistoryImage(image);
this.Invoke(new ShowTrainingBackgroundImageDelegate(ShowTrainingBackgroundImage),
new object[] { image.Bitmap, idx });
image.Dispose();
}
//训练背景
Stopwatch sw = new Stopwatch();
sw.Start();
nbgModel.TrainBackgroundModel();
sw.Stop();
//显示结果
this.Invoke(new ShowTrainingBackgroundResultDelegate(ShowTrainingBackgroundResult),
new object[]{ nbgModel.Mrbm.Bitmap,string.Format("NBGModel训练背景用时{0:F04}毫秒,参数(样本数目:{1},典型点数目:{2})。",sw.ElapsedMilliseconds,param.n,param.m)});
}

//用于在训练背景工作线程中获取设置参数的委托及方法
private delegate NBGParameter GetNBGParameterDelegate();
private NBGParameter GetNBGParameter()
{
return new NBGParameter((int)nudNBGModelN.Value, (int)nudNBGModelM.Value, (double)nudNBGModelTheta.Value, (double)nudNBGModelT.Value, new MCvTermCriteria((int)nudNBGModelMaxIter.Value, (double)nudNBGModelEps.Value));
}

//用于在训练背景工作线程中显示结果的委托及方法
private delegate void ShowTrainingBackgroundResultDelegate(Bitmap mrbm, string result);
private void ShowTrainingBackgroundResult(Bitmap mrbm, string result)
{
pbResult.Image
= mrbm;
txtResult.Text
+= result + "\r\n";
action
= Action.Stop;
SetButtonState();
}

//用于在训练背景工作线程中显示训练图像的委托及方法
private delegate void ShowTrainingBackgroundImageDelegate(Bitmap bitmap, int idx);
private void ShowTrainingBackgroundImage(Bitmap bitmap, int idx)
{
pbSource.Image
= bitmap;
lblImageIndex.Text
= string.Format("{0:D4}", idx);
}

//开始前景检测
private void btnStartForegroundDetection_Click(object sender, EventArgs e)
{
threadForegroundDetection
= new Thread(new ThreadStart(ForegroundDetection));
threadForegroundDetection.Start();
action
= Action.StartForegroundDetection;
SetButtonState();
}

//检测前景
private void ForegroundDetection()
{
if (nbgModel == null)
return;
Stopwatch sw
= new Stopwatch();
int idx;
for (idx = nbgModel.Param.n; idx < MaxImageFileIndexNumber; idx++)
{
if (action != Action.StartForegroundDetection)
break;
if ((idx - nbgModel.Param.n) % 50 == 49)
nbgModel.ClearStale(
40);
Image
<Bgr, Byte> image = new Image<Bgr, byte>(string.Format(ImageFilePathName, idx));
sw.Start();
nbgModel.Update(image);
sw.Stop();
Image
<Bgr, Byte> imageForground = image.Copy(nbgModel.ForegroundMask);
this.Invoke(new ShowForegroundDetectionImageDelegate(ShowForegroundDetectionImage),
new object[] { image.Bitmap, imageForground.Bitmap, idx });
image.Dispose();
imageForground.Dispose();
}
int frames = idx - nbgModel.Param.n;
this.Invoke(new ShowForegroundDetectionResultDelegate(ShowForegroundDetectionResult),
new object[] { string.Format("NBGModel前景检测,共{0}帧,平均耗时{1:F04}毫秒,参数(样本数目:{2},典型点数目:{3},权重系数:{4},最小差值:{5},最大迭代次数:{6},终止精度:{7})",
frames,1d
*sw.ElapsedMilliseconds/frames,nbgModel.Param.n,nbgModel.Param.m,nbgModel.Param.theta,nbgModel.Param.t,nbgModel.Param.criteria.max_iter,nbgModel.Param.criteria.epsilon)});
}

//用于在前景检测工作线程中显示图像的委托及方法
private delegate void ShowForegroundDetectionImageDelegate(Bitmap image, Bitmap foreground, int idx);
private void ShowForegroundDetectionImage(Bitmap image, Bitmap foreground, int idx)
{
pbSource.Image
= image;
pbResult.Image
= foreground;
lblImageIndex.Text
= string.Format("{0:D4}", idx);
}

//用于在前景检测工作线程中显示结果的委托及方法
private delegate void ShowForegroundDetectionResultDelegate(string result);
private void ShowForegroundDetectionResult(string result)
{
txtResult.Text
+= result;
}

//停止
private void btnStop_Click(object sender, EventArgs e)
{
if (action == Action.StartTrainingBackground)
{
action
= Action.Stop;
Thread.Sleep(
1);
if (threadTrainingBackground.ThreadState == System.Threading.ThreadState.Running)
threadTrainingBackground.Abort();
nbgModel.Dispose();
nbgModel
= null;
}
action
= Action.Stop;
SetButtonState();
}

/// <summary>
/// 设置按钮的状态
/// </summary>
private void SetButtonState()
{
if (action == Action.Stop)
{
btnStartTrainingBackground.Enabled
= true;
btnStartForegroundDetection.Enabled
= true;
btnStop.Enabled
= false;
}
else if (action == Action.StartForegroundDetection || action==Action.StartTrainingBackground)
{
btnStartTrainingBackground.Enabled
= false;
btnStartForegroundDetection.Enabled
= false;
btnStop.Enabled
= true;
}
}

//加载窗体时
private void FormForegroundDetect2_Load(object sender, EventArgs e)
{
toolTip.SetToolTip(nudNBGModelN,
"样本数目:需要被保存的历史图像数目");
toolTip.SetToolTip(nudNBGModelM,
"典型点数目:历史图像需要被分为多少组");
toolTip.SetToolTip(nudNBGModelTheta,
"权重系数:权重大于该值的聚集中心是候选背景");
toolTip.SetToolTip(nudNBGModelT,
"最小差值:观测值与聚集中心的最小差值如果大于该值,为前景;否则为背景");
toolTip.SetToolTip(nudNBGModelMaxIter,
"最大迭代次数:MeanShift计算过程中的最大迭代次数");
toolTip.SetToolTip(nudNBGModelEps,
"终止精度:MeanShift计算过程中,如果矩形窗的位移小于等于该值,则停止计算");

pbSource.Image
= Image.FromFile(string.Format(ImageFilePathName, 0));
lblImageIndex.Text
= string.Format("{0:D4}", 0);
}

//当窗体关闭后,释放资源
private void FormForegroundDetect2_FormClosed(object sender, FormClosedEventArgs e)
{
if (threadTrainingBackground != null && threadTrainingBackground.ThreadState == System.Threading.ThreadState.Running)
threadTrainingBackground.Abort();
if (threadForegroundDetection != null && threadForegroundDetection.ThreadState == System.Threading.ThreadState.Running)
threadForegroundDetection.Abort();
if (nbgModel != null)
nbgModel.Dispose();
}
}

/// <summary>
/// 当前正在执行的动作
/// </summary>
public enum Action
{
StartTrainingBackground,
//开始训练背景
StartForegroundDetection, //开始前景检测
Stop //停止
}
}

 

2 实现NBGModel
    2.1 我在实现NBGModel的时候基本上跟论文中的方式一样,不过有以下两点区别:
(1)论文中的MeanShift计算使用了Epanechnikov核函数,我使用的是矩形窗形式的MeanShift计算。主要是因为我自己不会实现MeanShift,只能利用OpenCV中提供的cvMeanShift函数。这样做也有一个好处——不再需要计算与保存典型点。
(2)论文中的方法在检测的过程中聚集中心会不断的增加,我模仿CodeBook的实现为其增加了一个清除消极聚集中心的ClearStable方法。这样可以在必要的时候将长期不活跃的聚集中心清除掉。

    2.2 NBGModel中用到的数据成员如下所示:
        private int width;                                          //图像的宽度
        private int height;                                         //图像的高度
        private NBGParameter param;                                 //非参数背景模型的参数

        private List<Image<Ycc, Byte>> historyImages = null;        //历史图像:列表个数为param.n,在更新时如果个数大于等于param.n,删除最早的历史图像,加入最新的历史图像
        //由于这里采用矩形窗口方式的MeanShift计算,因此不再需要分组图像的典型点。这跟论文不一样。
        //private List<Image<Ycc,Byte>> convergenceImages = null;   //收敛图像:列表个数为param.m,仅在背景训练时使用,训练结束即被清空,因此这里不再声明
        private Image<Gray, Byte> sampleImage = null;               //样本图像:保存历史图像中每个像素在Y通道的值,用于MeanShift计算
        private List<ClusterCenter<Ycc>>[,] clusterCenters = null;  //聚集中心数据:将收敛点分类之后得到的聚集中心,数组大小为:height x width,列表元素个数不定q(q<=m)。
        private Image<Ycc, Byte> mrbm = null;                       //最可靠背景模型

        private Image<Gray, Byte> backgroundMask = null;            //背景掩码图像

        private double frameCount = 0;                              //总帧数(不包括训练阶段的帧数n)

其中,NBGParameter结构包含以下成员:
        public int n;                       //样本数目:需要被保留的历史图像数目
        public int m;                       //典型点数目:历史图像需要被分为多少组
        public double theta;                //权重系数:权重大于该值的聚集中心为候选背景
        public double t;                    //最小差值:观测值与候选背景的最小差值大于该值时,为前景;否则为背景
        public MCvTermCriteria criteria;    //Mean Shift计算的终止条件:包括最大迭代次数和终止计算的精度

聚集中心ClusterCenter使用类而不是结构,是为了方便更新,它包含以下成员:
        public TColor ci;              //聚集中心的像素值
        public double wi;              //聚集中心的权重
        public double li;              //聚集中心包含的收敛点数目
        public double updateFrameNo;   //更新该聚集中心时的帧数:用于清除消极的聚集中心

    2.3 NBGModel中的关键流程
1.背景建模
(1)将训练用的样本图像添加到历史图像historyImages中;
(2)将历史图像分为m组,以每组所在位置的矩形窗为起点进行MeanShift计算,结果窗的中点为收敛中心,收敛中心的像素值为收敛值,将收敛值添加到收敛图像convergenceImages中;
(3)计算收敛图像的聚集中心:(a)得到收敛中心的最小值Cmin;(b)将[0,Cmin+t]区间中的收敛中心划分为一类;(c)计算已分类收敛中心的平均值,作为聚集中心的值;(d)删除已分类的收敛中心;(e)重复a~d,直到收敛中心全部归类;
(4)得到最可靠背景模型MRBM:在聚集中心中选取wi最大的值作为某个像素的最可靠背景。

2.前景检测
(1)用wi≥theta作为条件选择可能的背景组Cb;
(2)对每个观测值x0,计算x0与Cb的最小差值d;
(3)如果d>t,则该点为前景;否则为背景。

3.背景维持
(1)如果某点为背景,更新最近聚集中心的wi为(li+1)/m;
(2)如果某点为前景:(a)以该点所在的矩形窗为起点进行MeanShift计算,可得到新的收敛中心Cnew(wi=1/m);(b)将Cnew加入到聚集中心clusterCenters;
(3)在必要的时候,清理消极的聚集中心。

    2.4 NBGModel的实现代码
值得注意的是:在实现代码中,有好几个以2结尾的私有方法,它们主要用于演示算法流程,实际上并未使用。为了优化性能而增加了不少指针操作之后的代码可读性变得很差。

背景建模与前景检测之三(Background Generation And Foreground Detection Phase 3) - dp - dp: 生活的脚步,进步的点滴...背景建模与前景检测之三(Background Generation And Foreground Detection Phase 3) - dp - dp: 生活的脚步,进步的点滴...NBGModel实现代码
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Drawing;
using System.Drawing.Imaging;
using System.Diagnostics;
using System.Runtime.InteropServices;
using Emgu.CV;
using Emgu.CV.Structure;
using Emgu.CV.CvEnum;

namespace ImageProcessLearn
{
public class NBGModel : IDisposable
{
//成员变量
private int width; //图像的宽度
private int height; //图像的高度
private NBGParameter param; //非参数背景模型的参数

private List<Image<Ycc, Byte>> historyImages = null; //历史图像:列表个数为param.n,在更新时如果个数大于param.n,删除最早的历史图像,加入最新的历史图像
//由于这里采用矩形窗口方式的MeanShift计算,因此不再需要分组图像的典型点。这跟论文不一样。
//private List<Image<Ycc,Byte>> convergenceImages = null; //收敛图像:列表个数为param.m,仅在背景训练时使用,训练结束即被清空,因此这里不再声明
private Image<Gray, Byte> sampleImage = null; //样本图像:保存历史图像中每个像素在Y通道的值,用于MeanShift计算
private List<ClusterCenter<Ycc>>[,] clusterCenters = null; //聚集中心数据:将收敛点分类之后得到的聚集中心,数组大小为:height x width,列表元素个数不定q(q<=m)。
private Image<Ycc, Byte> mrbm = null; //最可靠背景模型

private Image<Gray, Byte> backgroundMask = null; //背景掩码图像

private double frameCount = 0; //总帧数(不包括训练阶段的帧数n)

//属性
/// <summary>
/// 图像的宽度
/// </summary>
public int Width
{
get
{
return width;
}
}

/// <summary>
/// 图像的高度
/// </summary>
public int Height
{
get
{
return height;
}
}

/// <summary>
/// 非参数背景模型的参数
/// </summary>
public NBGParameter Param
{
get
{
return param;
}
}

/// <summary>
/// 最可靠背景模型
/// </summary>
public Image<Ycc, Byte> Mrbm
{
get
{
return mrbm;
}
}

/// <summary>
/// 背景掩码
/// </summary>
public Image<Gray, Byte> BackgroundMask
{
get
{
return backgroundMask;
}
}

/// <summary>
/// 前景掩码
/// </summary>
public Image<Gray, Byte> ForegroundMask
{
get
{
return backgroundMask.Not();
}
}

/// <summary>
/// 总帧数
/// </summary>
public double FrameCount
{
get
{
return frameCount;
}
}

/// <summary>
/// 构造函数
/// </summary>
/// <param >图像宽度</param>
/// <param >图像高度</param>
public NBGModel(int width, int height)
:
this(width, height, NBGParameter.GetDefaultNBGParameter())
{
}

/// <summary>
/// 构造函数
/// </summary>
/// <param >图像宽度</param>
/// <param >图像高度</param>
///<param >非参数背景模型的参数</param>
public NBGModel(int width, int height, NBGParameter param)
{
CheckParameters(width, height, param);
this.width = width;
this.height = height;
this.param = param;

historyImages
= new List<Image<Ycc, byte>>(param.n);
sampleImage
= new Image<Gray, byte>(param.n, 1);
clusterCenters
= new List<ClusterCenter<Ycc>>[height, width];
for (int row = 0; row < height; row++)
{
for (int col = 0; col < width; col++)
clusterCenters[row, col]
= new List<ClusterCenter<Ycc>>(param.m); //聚集中心列表不定长,因此将其初始化为m个元素的容量
}
mrbm
= new Image<Ycc, byte>(width, height);
backgroundMask
= new Image<Gray, byte>(width, height);
frameCount
= 0;
}

/// <summary>
/// 检查参数是否正确,如果不正确,抛出异常
/// </summary>
/// <param >图像宽度</param>
/// <param >图像高度</param>
/// <param >非参数背景模型的参数</param>
private void CheckParameters(int width, int height, NBGParameter param)
{
if (width <= 0)
throw new ArgumentOutOfRangeException("width", width, "图像宽度必须大于零。");
if (height <= 0)
throw new ArgumentOutOfRangeException("height", height, "图像高度必须大于零。");
if (param.n <= 0)
throw new ArgumentOutOfRangeException("n", param.n, "样本数目必须大于零。");
if (param.m <= 0)
throw new ArgumentOutOfRangeException("m", param.m, "典型点数目必须大于零。");
if (param.n % param.m != 0)
throw new ArgumentException("样本数目必须是典型点数目的整数倍。", "n,m");
if (param.theta <= 0 || param.theta > 1)
throw new ArgumentOutOfRangeException("theta", param.theta, "权重系数必须大于零,并且小于1。");
if (param.t <= 0)
throw new ArgumentOutOfRangeException("t", param.t, "最小差值必须大于零。");
}

/// <summary>
/// 释放资源
/// </summary>
public void Dispose()
{
if (historyImages != null && historyImages.Count > 0)
{
foreach (Image<Ycc, byte> historyImage in historyImages)
{
if (historyImage != null)
historyImage.Dispose();
}
}
if (sampleImage != null)
sampleImage.Dispose();
if (clusterCenters != null && clusterCenters.Length > 0)
{
foreach (List<ClusterCenter<Ycc>> clusterCentersElement in clusterCenters)
clusterCentersElement.Clear();
}
if (mrbm != null)
mrbm.Dispose();
if (backgroundMask != null)
backgroundMask.Dispose();
}

/// <summary>
/// 增加历史图像
/// </summary>
/// <param >历史图像</param>
/// <returns>是否增加成功</returns>
public bool AddHistoryImage(Image<Ycc, byte> historyImage)
{
bool success = false;
if (historyImage != null && historyImage.Width == width && historyImage.Height == height)
{
if (historyImages.Count >= param.n)
{
if (historyImages[0] != null)
historyImages[
0].Dispose();
historyImages.RemoveAt(
0);
}
historyImages.Add(historyImage.Copy());
success
= true;
}
return success;
}

/// <summary>
/// 增加历史图像
/// </summary>
/// <param >历史图像数组</param>
/// <returns>返回成功增加的历史图像数目</returns>
public int AddHistoryImage(Image<Ycc,byte>[] historyImages)
{
int added = 0;
if (historyImages != null && historyImages.Length > 0)
{
foreach (Image<Ycc,byte> historyImage in historyImages)
{
if (AddHistoryImage(historyImage))
added
++;
}
}
return added;
}

/// <summary>
/// 增加历史图像
/// </summary>
/// <param >历史图像列表</param>
/// <returns>返回成功增加的历史图像数目</returns>
public int AddHistoryImage(List<Image<Ycc,byte>> historyImages)
{
return AddHistoryImage(historyImages.ToArray());
}

/// <summary>
/// 增加历史图像
/// </summary>
/// <param >历史图像</param>
/// <returns>是否增加成功</returns>
public bool AddHistoryImage(Image<Bgr, byte> historyImage)
{
Image
<Ycc, byte> image = historyImage.Convert<Ycc, byte>();
bool success = AddHistoryImage(image);
image.Dispose();
return success;
}

/// <summary>
/// 增加历史图像
/// </summary>
/// <param >历史图像数组</param>
/// <returns>返回成功增加的历史图像数目</returns>
public int AddHistoryImage(Image<Bgr, byte>[] historyImages)
{
int added = 0;
if (historyImages != null && historyImages.Length > 0)
{
foreach (Image<Bgr, byte> historyImage in historyImages)
{
if (AddHistoryImage(historyImage))
added
++;
}
}
return added;
}

/// <summary>
/// 增加历史图像
/// </summary>
/// <param >历史图像列表</param>
/// <returns>返回成功增加的历史图像数目</returns>
public int AddHistoryImage(List<Image<Bgr, byte>> historyImages)
{
return AddHistoryImage(historyImages.ToArray());
}

/// <summary>
/// 训练背景模型
/// </summary>
/// <returns>返回训练是否成功</returns>
unsafe public bool TrainBackgroundModel()
{
bool success = false;
if (historyImages.Count >= param.n)
{
//0.初始化收敛图像,个数为param.m
List<Image<Ycc, byte>> convergenceImages = new List<Image<Ycc, byte>>(param.m);
for (int i = 0; i < param.m; i++)
convergenceImages.Add(
new Image<Ycc, byte>(width, height));
//1.将历史图像分为m组,以每组的位置为矩形窗的起点,对通道Y在历史图像中进行MeanShift计算,结果窗的中点为收敛中心,该中心的值为收敛值,将收敛值加入到convergenceImageData中。
int numberPerGroup = param.n / param.m; //每组图像的数目
MCvConnectedComp comp; //保存Mean Shift计算结果的连接部件
int offsetHistoryImage; //历史图像中某个像素相对图像数据起点的偏移量
int widthStepHistoryImage = historyImages[0].MIplImage.widthStep; //历史图像的每行字节数
byte*[] ptrHistoryImages = new byte*[param.n]; //历史图像的数据部分起点数组
byte* ptrSampleImage = (byte*)sampleImage.MIplImage.imageData.ToPointer(); //样本图像的数据部分起点
int offsetConvergenceImage; //收敛图像中某个像素相对图像数据起点的偏移量
int widthStepConvergenceImage = convergenceImages[0].MIplImage.widthStep; //收敛图像的每行字节数
byte*[] ptrConvergenceImages = new byte*[param.m]; //收敛图像的数据部分起点数组
for (int i = 0; i < param.n; i++)
ptrHistoryImages[i]
= (byte*)historyImages[i].MIplImage.imageData.ToPointer();
for (int i = 0; i < param.m; i++)
ptrConvergenceImages[i]
= (byte*)convergenceImages[i].MIplImage.imageData.ToPointer();
//遍历图像的每一行
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
offsetHistoryImage
= row * widthStepHistoryImage + col * 3;
offsetConvergenceImage
= row * widthStepConvergenceImage + col * 3;
//用历史图像在该点的Y通道值组成一副用于Mean Shift计算的样本图像
for (int sampleIdx = 0; sampleIdx < param.n; sampleIdx++)
*(ptrSampleImage + sampleIdx) = *(ptrHistoryImages[sampleIdx] + offsetHistoryImage);
//以每组的位置为矩形窗的起点,用MeanShift过程找到局部极值,由局部极值组成的图像是收敛图像
for (int representativeIdx = 0; representativeIdx < param.m; representativeIdx++)
{
Rectangle window
= new Rectangle(representativeIdx * numberPerGroup, 0, numberPerGroup, 1);
CvInvoke.cvMeanShift(sampleImage.Ptr, window, param.criteria,
out comp);
int center = comp.rect.Left + comp.rect.Width / 2; //收敛中心
*(ptrConvergenceImages[representativeIdx] + offsetConvergenceImage) = *(ptrHistoryImages[center] + offsetHistoryImage);
*(ptrConvergenceImages[representativeIdx] + offsetConvergenceImage + 1) = *(ptrHistoryImages[center] + offsetHistoryImage + 1);
*(ptrConvergenceImages[representativeIdx] + offsetConvergenceImage + 2) = *(ptrHistoryImages[center] + offsetHistoryImage + 2);
}
}
}
//2.将近似的收敛点分类,以得到聚集中心
//(1)得到收敛中心的最小值Cmin;(2)将[0 , Cmin+t]区间中的收敛中心划为一类;(3)计算已分类点的平均值,作为聚集中心的值,并将聚集中心添加到clusterCenters;(4)删除已分类的收敛中心;(5)重复(0)~(4)直到收敛中心全部归类。
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
offsetConvergenceImage
= row * widthStepConvergenceImage + col * 3;
//得到该像素的收敛中心列表
List<Ycc> convergenceCenters = new List<Ycc>(param.m);
for (int convergenceIdx = 0; convergenceIdx < param.m; convergenceIdx++)
convergenceCenters.Add(
new Ycc(*(ptrConvergenceImages[convergenceIdx] + offsetConvergenceImage), *(ptrConvergenceImages[convergenceIdx] + offsetConvergenceImage + 1), *(ptrConvergenceImages[convergenceIdx] + offsetConvergenceImage + 2)));
while (convergenceCenters.Count > 0)
{
Ycc Cmin
= MinYcc(convergenceCenters);
double regionHigh = Cmin.Y + param.t;
Ycc sum
= new Ycc(0d, 0d, 0d);
double li = 0d;
for (int i = convergenceCenters.Count - 1; i >= 0; i--)
{
Ycc ci
= convergenceCenters[i];
if (ci.Y <= regionHigh)
{
sum.Y
+= ci.Y;
sum.Cr
+= ci.Cr;
sum.Cb
+= ci.Cb;
li
++;
convergenceCenters.RemoveAt(i);
}
}
Ycc avg
= new Ycc(sum.Y / li, sum.Cr / li, sum.Cb / li);
double wi = li / param.m;
ClusterCenter
<Ycc> clusterCenter = new ClusterCenter<Ycc>(avg, wi, li, 0d);
clusterCenters[row, col].Add(clusterCenter);
}
}
}
//3.得到最可靠背景模型
GetMrbm();
//4.释放资源
for (int i = 0; i < param.m; i++)
convergenceImages[i].Dispose();
convergenceImages.Clear();
success
= true;
}
return success;
}

/// <summary>
/// 训练背景模型(没有使用指针运算进行优化,用于演示流程)
/// </summary>
/// <returns>返回训练是否成功</returns>
private bool TrainBackgroundModel2()
{
bool success = false;
if (historyImages.Count >= param.n)
{
//0.初始化收敛图像,个数为param.m
List<Image<Ycc, byte>> convergenceImages = new List<Image<Ycc, byte>>(param.m);
for (int i = 0; i < param.m; i++)
convergenceImages.Add(
new Image<Ycc, byte>(width, height));
//1.将历史图像分为m组,以每组的位置为矩形窗的起点,对通道Y在历史图像中进行MeanShift计算,结果窗的中点为收敛中心,该中心的值为收敛值,将收敛值加入到convergenceImageData中。
int numberPerGroup = param.n / param.m; //每组图像的数目
MCvConnectedComp comp; //保存Mean Shift计算结果的连接部件
//遍历图像的每一行
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
//用历史图像在该点的Y通道值组成一副用于Mean Shift计算的样本图像
for (int sampleIdx = 0; sampleIdx < param.n; sampleIdx++)
sampleImage[
0, sampleIdx] = new Gray(historyImages[sampleIdx][row, col].Y); //这里可以用指针优化访问像素的速度
//以每组的位置为矩形窗的起点,用MeanShift过程找到局部极值,由局部极值组成的图像是收敛图像
for (int representativeIdx = 0; representativeIdx < param.m; representativeIdx++)
{
Rectangle window
= new Rectangle(representativeIdx * numberPerGroup, 0, numberPerGroup, 1);
CvInvoke.cvMeanShift(sampleImage.Ptr, window, param.criteria,
out comp);
int center = comp.rect.Left + comp.rect.Width / 2; //收敛中心
Ycc ci = historyImages[center][row, col]; //收敛中心对应的像素值
convergenceImages[representativeIdx][row, col] = ci; //将收敛中心添加到收敛图像数据中去(这两句可以用指针优化访问像素的速度)
}
}
}
//2.将近似的收敛点分类,以得到聚集中心
//(1)得到收敛中心的最小值Cmin;(2)将[0 , Cmin+t]区间中的收敛中心划为一类;(3)计算已分类点的平均值,作为聚集中心的值,并将聚集中心添加到clusterCenters;(4)删除已分类的收敛中心;(5)重复(0)~(4)直到收敛中心全部归类。
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
//得到该像素的收敛中心列表
List<Ycc> convergenceCenters = new List<Ycc>(param.m);
for (int convergenceIdx = 0; convergenceIdx < param.m; convergenceIdx++)
convergenceCenters.Add(convergenceImages[convergenceIdx][row, col]);
while (convergenceCenters.Count > 0)
{
Ycc Cmin
= MinYcc(convergenceCenters);
double regionHigh = Cmin.Y + param.t;
Ycc sum
= new Ycc(0d, 0d, 0d);
double li = 0d;
for (int i = convergenceCenters.Count - 1; i >= 0; i--)
{
Ycc ci
= convergenceCenters[i];
if (ci.Y <= regionHigh)
{
sum.Y
+= ci.Y;
sum.Cr
+= ci.Cr;
sum.Cb
+= ci.Cb;
li
++;
convergenceCenters.RemoveAt(i);
}
}
Ycc avg
= new Ycc(sum.Y / li, sum.Cr / li, sum.Cb / li);
double wi = li / param.m;
ClusterCenter
<Ycc> clusterCenter = new ClusterCenter<Ycc>(avg, wi, li, 0d);
clusterCenters[row, col].Add(clusterCenter);
}
}
}
//3.得到最可靠背景模型
GetMrbm();
//4.释放资源
for (int i = 0; i < param.m; i++)
convergenceImages[i].Dispose();
convergenceImages.Clear();
success
= true;
}
return success;
}

/// <summary>
/// 训练背景模型
/// </summary>
/// <param >历史图像数组</param>
/// <returns>返回训练是否成功</returns>
public bool TrainBackgroundModel(Image<Ycc,byte>[] historyImages)
{
AddHistoryImage(historyImages);
return TrainBackgroundModel();
}

/// <summary>
/// 训练背景模型
/// </summary>
/// <param >历史图像数组</param>
/// <returns>返回训练是否成功</returns>
public bool TrainBackgroundModel(List<Image<Ycc,byte>> historyImages)
{
AddHistoryImage(historyImages);
return TrainBackgroundModel();
}

/// <summary>
/// 训练背景模型
/// </summary>
/// <param >历史图像数组</param>
/// <returns>返回训练是否成功</returns>
public bool TrainBackgroundModel(Image<Bgr, byte>[] historyImages)
{
AddHistoryImage(historyImages);
return TrainBackgroundModel();
}

/// <summary>
/// 训练背景模型
/// </summary>
/// <param >历史图像数组</param>
/// <returns>返回训练是否成功</returns>
public bool TrainBackgroundModel(List<Image<Bgr, byte>> historyImages)
{
AddHistoryImage(historyImages);
return TrainBackgroundModel();
}

/// <summary>
/// 得到Ycc列表中的最小值(仅比较Y分量)
/// </summary>
/// <param ></param>
/// <returns></returns>
private Ycc MinYcc(List<Ycc> yccList)
{
Ycc min
= yccList[0];
foreach (Ycc ycc in yccList)
{
if (ycc.Y < min.Y)
min
= ycc;
}
return min;
}

/// <summary>
/// 得到聚集中心列表中的最大值(比较wi)
/// </summary>
/// <param ></param>
/// <returns></returns>
private ClusterCenter<Ycc> MaxClusterCenter(List<ClusterCenter<Ycc>> clusterCenters)
{
ClusterCenter
<Ycc> max = clusterCenters[0];
foreach (ClusterCenter<Ycc> center in clusterCenters)
{
if (center.wi > max.wi)
max
= center;
}
return max;
}

/// <summary>
/// 得到最可靠背景模型MRBM:在聚集中心选择wi最大的值(没有使用指针运算进行优化,用于演示流程)
/// </summary>
private void GetMrbm2()
{
//遍历图像的每一行
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
mrbm[row, col]
= MaxClusterCenter(clusterCenters[row, col]).ci;
}
}

/// <summary>
/// 得到最可靠背景模型MRBM:在聚集中心选择wi最大的值
/// </summary>
unsafe private void GetMrbm()
{
int widthStepMrbm = mrbm.MIplImage.widthStep;
byte* ptrMrbm = (byte*)mrbm.MIplImage.imageData.ToPointer();
byte* ptrPixel;
Ycc ci;
//遍历图像的每一行
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
ci
= MaxClusterCenter(clusterCenters[row, col]).ci;
ptrPixel
= ptrMrbm + row * widthStepMrbm + col * 3;
*ptrPixel = (byte)ci.Y;
*(ptrPixel + 1) = (byte)ci.Cr;
*(ptrPixel + 2) = (byte)ci.Cb;
}
}
}

/// <summary>
/// 更新背景模型,同时计算相应的前景和背景(没有使用指针运算进行优化,用于演示流程)
/// </summary>
/// <param >当前帧图像</param>
private void Update2(Image<Ycc, byte> currentFrame)
{
//1.将当前帧加入到历史图像的末尾
AddHistoryImage(currentFrame);
frameCount
++;
//2.将背景掩码图像整个设置为白色,在检测时再将前景像素置零
backgroundMask.SetValue(255d);
//3.遍历图像的每个像素,确定前景或背景;同时进行背景维持操作。
int numberPerGroup = param.n / param.m;
int lastIdx = param.n - 1;
//遍历图像的每一行
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
int nearestIndex; //最近的聚集中心索引
double d = GetMinD(historyImages[lastIdx][row, col].Y, clusterCenters[row, col], out nearestIndex); //得到最小差值d
if (d > param.t)
{
//该点为前景:以该点附近的矩形窗{n-numberPerGroup,0,numberPerGroup,1}开始进行MeanShift运算,并得到新的收敛中心Cnew(wi=1/m),将Cnew加入到聚集中心clusterCenters
//用历史图像在该点的Y通道值组成一副用于Mean Shift计算的样本图像
for (int sampleIdx = 0; sampleIdx < param.n; sampleIdx++)
sampleImage[
0, sampleIdx] = new Gray(historyImages[sampleIdx][row, col].Y); //这里可以用指针运算来提高速度
Rectangle window = new Rectangle(param.n - numberPerGroup, 0, numberPerGroup, 1);
MCvConnectedComp comp;
CvInvoke.cvMeanShift(sampleImage.Ptr, window, param.criteria,
out comp);
int center = comp.rect.Left + comp.rect.Width / 2; //收敛中心
ClusterCenter<Ycc> cnew = new ClusterCenter<Ycc>(historyImages[center][row, col], 1d / (param.m + frameCount), 1d, frameCount); //将收敛中心作为新的聚集中心
clusterCenters[row, col].Add(cnew);
//设置背景掩码图像的前景点
backgroundMask[row, col] = new Gray(0d);
}
else
{
//该点为背景:更新最近聚集中心的ci为(li+1)/m
clusterCenters[row, col][nearestIndex].li++;
clusterCenters[row, col][nearestIndex].wi
= clusterCenters[row, col][nearestIndex].li / (param.m + frameCount);
clusterCenters[row, col][nearestIndex].updateFrameNo
= frameCount;
}
}
}
//4.生成最可靠背景模型
GetMrbm();
}

/// <summary>
/// 更新背景模型,同时计算相应的前景和背景
/// </summary>
/// <param >当前帧图像</param>
private void Update2(Image<Bgr, byte> currentFrame)
{
Image
<Ycc, byte> image = currentFrame.Convert<Ycc, byte>();
Update(image);
image.Dispose();
}

/// <summary>
/// 更新背景模型,同时计算相应的前景和背景
/// </summary>
/// <param >当前帧图像</param>
unsafe public void Update(Image<Ycc, byte> currentFrame)
{
//1.将当前帧加入到历史图像的末尾
AddHistoryImage(currentFrame);
frameCount
++;
//2.将背景掩码图像整个设置为白色,在检测时再将前景像素置零
backgroundMask.SetValue(255d);
//3.遍历图像的每个像素,确定前景或背景;同时进行背景维持操作。
int numberPerGroup = param.n / param.m;
int lastIdx = param.n - 1;
int offsetHistoryImage; //历史图像中某个像素相对图像数据起点的偏移量
int widthStepHistoryImage = historyImages[0].MIplImage.widthStep; //历史图像的每行字节数
byte*[] ptrHistoryImages = new byte*[param.n]; //历史图像的数据部分起点数组
byte* ptrSampleImage = (byte*)sampleImage.MIplImage.imageData.ToPointer(); //样本图像的数据部分起点
int widthStepBackgroundMask = backgroundMask.MIplImage.widthStep; //背景掩码图像的每行字节数
byte* ptrBackgroundMask = (byte*)backgroundMask.MIplImage.imageData.ToPointer(); //背景掩码图像的数据部分起点
byte f = 0; //前景对应的颜色值
for (int i = 0; i < param.n; i++)
ptrHistoryImages[i]
= (byte*)historyImages[i].MIplImage.imageData.ToPointer();
//遍历图像的每一行
for (int row = 0; row < height; row++)
{
//遍历图像的每一列
for (int col = 0; col < width; col++)
{
offsetHistoryImage
= row * widthStepHistoryImage + col * 3;
int nearestIndex; //最近的聚集中心索引
double d = GetMinD((double)(*(ptrHistoryImages[lastIdx] + offsetHistoryImage)), clusterCenters[row, col], out nearestIndex); //得到最小差值d
if (d > param.t)
{
//该点为前景:以该点附近的矩形窗{n-numberPerGroup,0,numberPerGroup,1}开始进行MeanShift运算,并得到新的收敛中心Cnew(wi=1/m),将Cnew加入到聚集中心clusterCenters
//用历史图像在该点的Y通道值组成一副用于Mean Shift计算的样本图像
for (int sampleIdx = 0; sampleIdx < param.n; sampleIdx++)
*(ptrSampleImage + sampleIdx) = *(ptrHistoryImages[sampleIdx] + offsetHistoryImage);
Rectangle window
= new Rectangle(param.n - numberPerGroup, 0, numberPerGroup, 1);
MCvConnectedComp comp;
CvInvoke.cvMeanShift(sampleImage.Ptr, window, param.criteria,
out comp);
int center = comp.rect.Left + comp.rect.Width / 2; //收敛中心
ClusterCenter<Ycc> cnew = new ClusterCenter<Ycc>(historyImages[center][row, col], 1d / (param.m + frameCount), 1d, frameCount); //将收敛中心作为新的聚集中心
clusterCenters[row, col].Add(cnew);
//设置背景掩码图像的前景点
*(ptrBackgroundMask + row * widthStepBackgroundMask + col) = f;
}
else
{
//该点为背景:更新最近聚集中心的ci为(li+1)/m
clusterCenters[row, col][nearestIndex].li++;
clusterCenters[row, col][nearestIndex].wi
= clusterCenters[row, col][nearestIndex].li / (param.m + frameCount);
clusterCenters[row, col][nearestIndex].updateFrameNo
= frameCount;
}
}
}
//4.生成最可靠背景模型
GetMrbm();
}

public void Update(Image<Bgr, byte> currentFrame)
{
Image
<Ycc, byte> image = currentFrame.Convert<Ycc, byte>();
Update(image);
image.Dispose();
}

/// <summary>
/// 用wi>=theta作为条件选择可能的背景模型Cb;对每个观测值x0,计算x0与Cb的最小差值d
/// </summary>
/// <param >观测值x0</param>
/// <param >某像素对应的聚集中心列表</param>
/// <param >输出参数:最近的聚集中心索引</param>
/// <returns>返回最小差值d</returns>
private double GetMinD(double x0, List<ClusterCenter<Ycc>> centerList, out int nearestIndex)
{
double d = double.MaxValue;
nearestIndex
= 0;
for (int idx = 0; idx < centerList.Count; idx++)
{
ClusterCenter
<Ycc> center = centerList[idx];
if (center.wi >= param.theta)
{
double d0 = Math.Abs(center.ci.Y - x0);
if (d0 < d)
{
d
= d0;
nearestIndex
= idx;
}
}
}
return d;
}

/// <summary>
/// 清除不活跃的聚集中心
/// </summary>
/// <param >不活跃阀值,不活跃帧数大于该值的聚集中心将被清除</param>
public void ClearStale(int staleThresh)
{
//遍历每个像素的聚集中心
for (int row = 0; row < height; row++)
{
for (int col = 0; col < width; col++)
{
for (int idx = clusterCenters[row, col].Count - 1; idx >= 0; idx--)
{
if (frameCount - clusterCenters[row, col][idx].updateFrameNo > staleThresh)
clusterCenters[row, col].RemoveAt(idx);
}
}
}
}

}

/// <summary>
/// 聚集中心
/// </summary>
/// <typeparam >聚集中心使用的色彩空间</typeparam>
public class ClusterCenter<TColor>
where TColor : struct, IColor
{
public TColor ci; //聚集中心的像素值
public double wi; //聚集中心的权重
public double li; //聚集中心包含的收敛点数目
public double updateFrameNo; //更新该聚集中心时的帧数:用于消除消极的聚集中心

public ClusterCenter(TColor ci, double wi, double li, double updateFrameNo)
{
this.ci = ci;
this.li = li;
this.wi = wi;
this.updateFrameNo = updateFrameNo;
}
}

/// <summary>
/// 非参数背景模型的参数
/// </summary>
public struct NBGParameter
{
public int n; //样本数目:需要被保留的历史图像数目
public int m; //典型点数目:历史图像需要被分为多少组
public double theta; //权重系数:权重大于该值的聚集中心为候选背景
public double t; //最小差值:观测值与候选背景的最小差值大于该值时,为前景;否则为背景
public MCvTermCriteria criteria; //Mean Shift计算的终止条件:包括最大迭代次数和终止计算的精度

public NBGParameter(int n, int m, double theta, double t, MCvTermCriteria criteria)
{
this.n = n;
this.m = m;
this.theta = theta;
this.t = t;
this.criteria.type = criteria.type;
this.criteria.max_iter = criteria.max_iter;
this.criteria.epsilon = criteria.epsilon;
}

public static NBGParameter GetDefaultNBGParameter()
{
return new NBGParameter(100, 10, 0.3d, 10d, new MCvTermCriteria(100, 1d));
}
}
}

 

3 NBGModel类介绍
    3.1 属性
Width——获取图像的宽度
Height——获取图像的高度
Param——获取参数设置
Mrbm——获取最可靠背景模型图像
BackgroundMask——获取背景掩码图像
ForegroundMask——获取前景掩码图像
FrameCount——获取已被检测的帧数

    3.2 构造函数
public NBGModel(int width, int height)——用默认的参数初始化NBGModel,等价于NBGModel(width, height, NBGParameter.GetDefaultNBGParameter())
public NBGModel(int width, int height, NBGParameter param)——用指定的参数初始化NBGModel

    3.3 方法
AddHistoryImage——添加一幅或者一组历史图像
TrainBackgroundModel——训练背景模型;如果传入了历史图像,则先添加历史图像,然后再训练背景模型
Update——更新背景模型,同时检测前景
ClearStale——清除消极的聚集中心
Dispose——释放资源

4 体会
    NBGModel的确非常有效,非常简洁,特别适用于伴随复杂运动对象的背景建模。我特意选取了PETS2009中的素材对其做了一些测试,结果也证明了NBGModel的优越性。不过需要指出的是,它需要占用大量的内存(主要因为需要保存n幅历史图像);它的计算量比较大。
在使用的过程中,它始终需要在内存中缓存n幅历史图像,1幅最可靠背景模型图像,1幅背景掩码图像,近似m幅图像(聚集中心);而在训练阶段,更需要临时存储m幅收敛图像。
例如:样本数目为100,典型点数目为10,图像尺寸为768x576时,所用的内存接近300M,训练背景需要大约需要33秒,而对每幅图像进行前景检测大约需要600ms。虽然可以使用并行编程来提高性能,但是并不能从根本上解决问题。
(注:测试电脑的CPU为AMD闪龙3200+,内存1.5G。)
    看来,有必要研究一种新的方法,目标是检测效果更好,内存占用低,处理更快速。目前的想法是使用《Wallflower: Principles and Practice of Background Manitenance》中的3层架构(时间轴上的像素级处理,像素间的区域处理,帧间处理),但是对每层架构都选用目前流行的处理方式,并对处理方式进行优化。时间轴上的像素级处理打算使用CodeBook方法,但是增加本文的一些思想。像素间的区域处理打算参考《基于区域相关的核函数背景建模算法》中的方法。帧间处理预计会采用全局灰度统计值作为依据。

最后,按照惯例:感谢您耐心看完本文,希望对您有所帮助。
本文所述方法及代码仅用于学习研究,不得用于商业目的。

  评论这张
 
阅读(844)| 评论(0)
推荐

历史上的今天

在LOFTER的更多文章

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2016