率统计学的原理来寻求更优解,而不再强调最优解。
图像提取技术的发展过程经历了以下4 个发展阶段: (1) 萌芽阶段 通过拍摄时的布景实现提取条件。
(2) 初期阶段 以四元像素和数字化为基础,建立了独立的分支学科 (3) 飞跃阶段 以概率统计学原理为基础的提取。
(4) 分化阶段 认识到视频中帧与帧之间存在相关性,产生了专门用于视频提取的方案。但由于自然色彩分布的复杂性,至今没有被广泛认可的模型,也没有系统的、统一的评价标准。所以说,图像提取技术的成熟还有待时日,并依赖于其它学科及计算机硬件技术的发展。由于图像提取涉及的学科领域比较广泛,学者们对待该问题的研究角度和出发点各不相同,目前已有的概念和模型有:Porter & Duff 模型、Blinn 模型、Knockout 模型、Ruzon & Tomasi 模型、Bayesian 模型、Poisson 模型、Chuang& Agarwala 模型、Yin Li & Jian Sun 模型。比较分析上述模型、可以发现:Porter & Duff 模型、Blinn 模型将图像提取问题规范化,是后续研究的重要基础;Knockout 模型是对Porter & Duff 模型、Blinn 模型的有益扩展,使之实用意义更大,在实际运用中效率更高。虽然Ruzon & Tomasi 模型、Bayesian 模型、Poisson 模型采用的具体概率统计方法各异,但这些模型都是先对图像进行初始化,生成Trimap ——前景、背景、交界区域,研究对象都是交界区域的α值。 Chuang & Agarwa2la 模型、Yin Li & Jian Sun 模型以视频提取为研究目的,引人了帧间信息相关性的概念,实现了视频的半自动提取。
目前为止,图像提取技术根据需求的不同出现了2 种研究思路:一种更注重提高α值的精确度,追求精确完美的效果;另一种则更注重提高提取的效率、实时性及自动化程度。 目前,图像提取技术的研究活动主要集中在以下5 个方面: (1) 拍摄设备、拍摄方法及技巧;(2) 分割技术;(3) 人机交互操作接口;(4) 面向对象的提取技术;(5) 前景与背景间交界区域估计模型。
2.2 图像压缩编码
作为通信、介质存贮、数据发送、多媒体计算机等技术的关键环节,图像压
缩编码算法的研究是信息技术中最活跃的研究领域之一。尤其是进入21 世纪以后,电子技术和通信技术的发展使可视电话、会议电视、数字电视、高清晰度电视、多媒体计算机、信息高速公路等的生产和建立成为可能。 在这一背景下,探索高效图像压缩编码算法无疑将成为主要任务之一,对其研究也将成为国际公认的热点之一。为了使有限的符号表达更多的信息量,图像压缩既非常必要,也有可能,因此产生了各种各样的图像压缩方法。图像压缩编码用尽可能少的数据表示信源发出的图像信号,以减少容纳给定消息集合的信号空间。通过对图像数据的压缩减少数据占用的存储空间,从而减少传输图像数据所需的时间和信道带宽。图2 为图像压缩系统模型,图像压缩编码算法的研究历程可分为如下2 个阶段。
信源 信源编码 信道编码 调制 噪声 传输信道 用户 信源译码 信道译码 图2 图像压缩系统模型
解调 (1) 第1 代图像压缩编码阶段(1985 年以前) 。图像压缩编码算法的研究起源于传统的数据压缩理论,有些学者认为始于18 世纪末Sheppards 所做的“实数舍入为十进制数”的研究,也有人认为19 世纪末研制的莫尔斯代码是数据压缩的第一次尝试。1939 年Dudley 研制了声码器,他把声音频谱的能量划分为有限数目的频带,并且在每个频带内传输相应的能级,因此能够达到较高的压缩。 比较系统的研究始于20 世纪40 年代初形成的信息论,尽管当时数字计算机尚未出现,但其研究与当今数字计算机所使用的压缩技术有着密切的联系,许多算法,如Huffman 编码等仍有很大的应用价值。近年来,由于模式识别、图像处理、计算机视觉等技术的发展,促进了数据压缩的研究。1997 年以前基于符号频率统计的Huffman 编码具有良好的压缩性能,一直占据重要的地位,并不断有基于其改进的算法提出。1977 年以色列科学家J acob Ziv 和Abra2ham Lempel
提出了不同于以往的基于字典的压缩编码算法L Z 77 ,1978 年又推出了改进算法L Z 78,把无损压缩编码算法的研究推向了一个全新的阶段。近年来,随着神经网络理论的兴起,有人采用BP 网进行非线性预测的尝试,取得了较好的效果。 自1969 年在美国举行首届“图像编码会议”以来,图像压缩编码算法的研究有了很大进展,其中变换压缩编码与量化压缩编码是研究热点。
(2) 第2 代图像压缩编码阶段(1985 年以后) 。为了克服第1 代图像压缩编码存在的压缩比小、图像复原质量不理想等弱点,1985 年Kunt 等人充分利用人眼视觉特性提出了第2 代图像压缩编码的概念。 20 世纪80 年代中后期,人们相继提出了在多个分辨率下表示图像的方案,主要方法有子带压缩编码、金字塔压缩编码等,利用不同类型的线性滤波器,将图像分解到不同的频带中,然后对不同频带的系数采用不同的压缩编码方法。 这些方法均在不同程度上有如下优点:多分辨率的信号表示有利于图形信号的渐进式传输;不同分辨率的信号占用不同的频带,便于引入视觉特性。1988 年,Barnsley 和Sloan 共同提出了分形图像编码压缩方案,该方案利用图像中固有的自相似性来构造一个紧缩变换,并使原图像成为该紧缩变换的吸引子,编码时只需存储变化的参数,解码时需要利用该变化对任一幅图像不断进行迭代变换。此方案具有思路新颖、压缩潜力大、解码分辨率无关性等特点,是一种很有潜力的编码方法。1987 年,Mallat 首次巧妙地将计算机视觉领域内的多尺度分析思想引入到小波变换中,统一了在此之前的各种小波的构造方法。之后,他又研究了小波变换的离散形式,并将相应的算法应用于图像的分解与重构中,为随后的小波图像压缩编码奠定了基础。
进入90 年代,又取得了一系列图像压缩编码研究的阶段性新成果。 其中EZW编码算法、SPIHT 编码算法被认为是目前世界上比较先进的图压缩编码算法,这2 种算法均具有结构简单、无需任何训练、支持多码率、图像复原质量较理想等优点,但同时又都不同程度地存在算法时间复杂度和空间复杂度过高的弱点。而小波变换的图像压缩编码算法已成为目前图像压缩研究领域的一个主要方向。小波变换是20 世纪80 年代后期发展起来的一种新的信息处理方法,因其本质是多分辨分析信号,在时域和频域都具有分辨率,对高频分量采用逐渐精细的时域或空域步长,可以聚焦到分析对象的任意细节,对于剧烈变换的边缘,比常规的傅里叶变换具有更好的适应性,故特别适用于分析非平稳信号。
2.3 图像增强与恢复
图像增强是按照特定的要求突出一幅图像中的某些信息,同时削弱或去除某些不需要的信息处理方法,其主要目的是使处理后的图像对某种特定的应用来说,以原来图像更适用,它是为了某种应用目的去改善图像质量,使图像更适合于人的视觉特性或机器的识别系统。目前增强方法主要有直方图修改处理、图像平滑化处理、图像尖锐化处理及彩色处理技术等,由于各种图像增强算法的特点不同,对图像增强的侧重点也不同。在对图像进行处理之前,首先分析不同图像增强方法的优缺点,再对具体图像问题进行具体分析,然后选择几种增强方法结合使用,也许就可能达到预期的增强效果。
图像在获取、传输和存储过程中由于受多种原因如模糊、失真、噪声等的影响,会造成图像质量的下降,即图像的退化。引起图像退化的原因很多,在图像的获取(数字化过程) 和传输过程,如使用CCD 摄像机获取图像,光照程度和传感器温度是造成图像退化的主要因素。图像在传输过程中主要由于所用的传输信道的干扰受到噪声污染,也会造成图像质量的下降。图像恢复技术以获取视觉质量得到某种程度改善为目的,根据指定的图像退化模型来对在某种情况下退化或降质了的退化图像进行恢复,以获取到原始的、未经退化的原始图像。图像恢复首先要建立图像退化/ 复原模型,当不知道图像本身的性质时,可以建立退化源的数学模型,然后施行恢复算法除去或减少退化源的影响。当有了关于图像本身的先验知识时,模型以建立原始图像的模型,然后在观测到的退化图像中通过检测原始图像而复原图像。常见的图像恢复模型有4 种:通用图像模型,光学系统模型,摄影过程模型,离散图像恢复模型。在成像系统中一个通常的缺点是在传感器和显示器系统中存在有害的非线性,传感器信号的处理后修正和显示器信号的处理前修正可以充分减少退化。这种恢复处理实现起来通常相对简单,最常见的图像恢复任务是为了补偿图像模糊和消除噪声影响而进行的空间图像恢复。目前通常有以下恢复技术:传感器和显示点的非线性修正,连续图像的空间滤波恢复,伪逆空间图像恢复,SVD 伪逆空间图像恢复,统计学估计空间图像恢复,约束图像恢复,盲目图像恢复。
2.4 图像分割
图像分割是图像处理中的一项关键技术,自20 世纪70 年代起一直受到人们高度重视,并在医学、工业、军事等领域得到了广泛应用。常用的分割方法主要分为基于区域的分割方法和基于边缘的分割方法2 类。此外,随着各学科的发展出现了一些结合某种特定理论的分割方法。 2.4.1 基于区域的分割方法
这类方法的基本思想是将图像分割成若干不重叠的区域,使各区域内部特征的相似性大于区域间特征的相似性,各区域内像素都满足基于灰度、纹理等特征的某种相似性准则。其常见的方法:阈值法;区域生长法;分裂合并法。 2.4.2 基于边缘的分割方法
边缘的主要表现为图像局部特征的不连续性,该方法首先检出图像中局部特性的不连续性或突变性,然后将它们连成边界,这些边界把图像分成不同的区域。 传统的图像边缘检测方法大多可归结为图像高频分量的增强过程,微分运算自然成为边缘检测与提取的主要手段。常用的边缘检测算子有以下几种:Robert 算子、Sobel 算子、Pre2witt 算子、Canny 算子和拉普拉斯算子。微分算子法的优点是计算简单、速度较快,缺点是对噪声的干扰都比较敏感。边界跟踪法的基本思想是从梯度图中的一边缘点出发,依次搜索并连接相邻边缘点,从而实现对图像边界的检测,先确定搜索起点,接着采取合适的数据结构和搜索机理,并在已发现的边界点上确定新的边界点,最后按照搜索的终结准则和终结条件完成边界的跟踪,从而实现边缘的提取。
图像分割至今尚无通用的自身理论,随着各学科的不断发展,提出了许多新理论和新方法,于是出现了许多与一些特定理论、方法相结合的图像分割技术。 遗传算法最初由美国Michigan 大学的Holland 教授于1975 年提出的,其基本思想是将问题域中的可能解视为群体的一个个体或染色体,并将每一个体编码成符号串形式,对种群反复进行选择、交叉和变异操作,根据预定的目标适应度函数对每个个体进行评价,适应值高的染色体被选中概率较高,以全局并行搜索方式来搜索优化群体中的最优个体。 该方法具有全局搜索能力,是一种迭代式的优化算法,在分割图像时常用来帮助确定最佳分割阈值。小波变换是在傅里叶分析基础上发展起来的,具有良好的时域和频域局部化特性,而且还具有多分辨分