基于数字图像的火焰识别算法研究与仿真

    韩美林

    摘 要:本文主要研究了火焰识别和分割的方法和步骤,主要包括两个方面的内容,一是对图像进行分割,采取基于最大类间方差法(Otsu)图像阈值分割法,较好的分离背景和对象。二是对火焰的识别和分割。主要是通过火焰的颜色特征,对火焰区域进行识别,再结合Otsu图像阈值分割法,将火焰分割出来。仿真结果表明本算法能够根据火焰的特征进行准确的识别和分割出火焰。

    关键词:最大类间方差;图像分割;火焰识别

    1 图像的分割处理

    选取合理的阈值是基于阈值图像分割技术的关键所在,阈值分割的原理,实际上是设定某一阈值θ将图像分为两个像素群,即原图像经过阈值分割变换得到一个新的图像。当f(x,y)=1时,说明该像素是分割的目标区域;当f(x,y)=0时,此时为背景区域。因此在图像分割的过程中确定合适的阈值是关键,选择一个合理的阈值就可以准确地对图像进行分割,并得到需要的目标区域。

    1.1 基于迭代的阈值选取方法

    基于迭代的阈值选取方法的基本思想是:首先选择图像灰度中值作为初始阈值,然后根据阈值分割为两区域并求出两区域平均灰度值,利用一维最大熵法计算出新阈值,不断地迭代改变阈值,直到满足要求。

    1.2 Otsu 图像阈值选取法

    Otsu最佳阈值法的基本原理是:通过设定的一个阈值θ把直方图分成A和B两部分即前景色和背景色,Nobuyuki Otsu给出的类间方差为:

    ICV=PA*MA-M2+PB*(MB-M)^2(1-1)

    式中:PA、PB分别为A、B部分里像素数占总像素数的比例;

    mMA、MB分别两部分表示各自的平均值。

    最佳的阈值θ就是使得ICV最大的那个值。

    2 火焰特征的识别和分割

    2.1 火焰特征的识别和分割流程图

    基于颜色特征的火焰识别流程图如图1所示:

    在火灾形成的初级阶段火焰的特征如颜色、形状、辐射强度不断在变化。将这些变化的特征转化为其特有的特征信息,作为系统识别火焰的判据。输入图像先进行预处理(包括灰度化、图像增强),再根据火焰的颜色特征进行火焰分割,即判断火焰和非火焰区。

    2.2 最大类间方差阈值法

    最大类间方差法(Otsu)是在判决分析或最小二乘原理的基础上推导出来的。该算法简单易实现,是一种广泛使用的阈值选取方法。

    设原始灰度图像的灰度级为L,灰度为i的像素点数为ni,图像的全部像素为N,那么阈值计算过程如下:

    (1)计算输入图像灰度级的归一化直方图,用表示,且有,;

    (2)计算灰度均值μ

    3 实验结果及分析

    3.1 图像的分割处理

    对图像的分割处理采用MATLAB仿真,结果如图3所示。

    从图4的仿真结果看出,基于 Otsu 图像阈值选取法能够有效地区分背景和火焰,而且还能最全面地获取火焰的疑似区域。

    3.2 火焰特征的分割和识别

    火焰特征的识别和分割仿真结果如图4所示:

    预处理中主要是对火焰图像进行了平滑滤波和灰度化处理。在灰度化处理的基础上选取了基于 Otsu 图像阈值选取的分割方法进行分割提取。通过多次实驗,结果证明本设计程序能够根据火焰的特征较好地分离出背景和对象,准确地分割和识别出火焰。

    4 总结

    本文主要研究内容是通过火焰的颜色特征,对火焰区域进行识别,再结合Otsu图像阈值分割法,将火焰分割出来。经多次实验,仿真结果表明本设计程序能够根据火焰的特征实现准确地分离出火焰目标

    区域。

    参考文献:

    [1]周忠涛.基于视频特征的火情监测研究[D].江西农业大学,2017.

    [2]戴静.火焰图像快速检测方法研究及应用[D].西南科技大学,2017.

    [3]严云洋,杜静,高尚兵,周静波,刘以安.融合多特征的视频火焰检测[J].计算机辅助设计与图形学学报,2015,27(03):433-440.

    [4]耿庆田,于繁华,赵宏伟,王闯.基于颜色特征的火焰检测新算法[J].吉林大学学报(工学版),2014,44(06):1787-1792.

    [5]许宏科,房建武,文常保.基于亮度与火焰区域边缘颜色分布的火焰检测[J].计算机应用研究,2010,27(09):3581-3584.

    [6]阳婷. 基于视频监控的火灾探测系统的研究与实现[D].东华大学,2016.

    [7]Yamagishi H, Yanmaguchi J. Fire flame detection algorithm using a color camera [A].Proceeding of 1999 International Symposium on Micromechatronics and Human Science.Nagoya, Japan, 2012: 255~260.