首页 > 论文发表知识库 > 数字图像去雾算法研究毕业论文

数字图像去雾算法研究毕业论文

发布时间:

数字图像去雾算法研究毕业论文

数字图像处理方面了解的了。

(一)选题毕业论文(设计)题目应符合本专业的培养目标和教学要求,具有综合性和创新性。本科生要根据自己的实际情况和专业特长,选择适当的论文题目,但所写论文要与本专业所学课程有关。(二)查阅资料、列出论文提纲题目选定后,要在指导教师指导下开展调研和进行实验,搜集、查阅有关资料,进行加工、提炼,然后列出详细的写作提纲。(三)完成初稿根据所列提纲,按指导教师的意见认真完成初稿。(四)定稿初稿须经指导教师审阅,并按其意见和要求进行修改,然后定稿。一般毕业论文题目的选择最好不要太泛,越具体越好,而且老师希望学生能结合自己学过的知识对问题进行分析和解决。不知道你是否确定了选题,确定选题了接下来你需要根据选题去查阅前辈们的相关论文,看看人家是怎么规划论文整体框架的;其次就是需要自己动手收集资料了,进而整理和分析资料得出自己的论文框架;最后就是按照框架去组织论文了。你如果需要什么参考资料和范文我可以提供给你。还有什么不了解的可以直接问我,希望可以帮到你,祝写作过程顺利毕业论文选题的方法:一、尽快确定毕业论文的选题方向 在毕业论文工作布置后,每个人都应遵循选题的基本原则,在较短的时间内把选题的方向确定下来。从毕业论文题目的性质来看,基本上可以分为两大类:一类是社会主义现代化建设实践中提出的理论和实际问题;另一类是专业学科本身发展中存在的基本范畴和基本理论问题。大学生应根据自己的志趣和爱好,尽快从上述两大类中确定一个方向。二、在初步调查研究的基础上选定毕业论文的具体题目在选题的方向确定以后,还要经过一定的调查和研究,来进一步确定选题的范围,以至最后选定具体题目。下面介绍两种常见的选题方法。 浏览捕捉法 :这种方法就是通过对占有的文献资料快速地、大量地阅读,在比较中来确定论文题目地方法。浏览,一般是在资料占有达到一定数量时集中一段时间进行,这样便于对资料作集中的比较和鉴别。浏览的目的是在咀嚼消化已有资料的过程中,提出问题,寻找自己的研究课题。这就需要对收集到的材料作一全面的阅读研究,主要的、次要的、不同角度的、不同观点的都应了解,不能看了一些资料,有了一点看法,就到此为止,急于动笔。也不能“先入为主”,以自己头脑中原有的观点或看了第一篇资料后得到的看法去决定取舍。而应冷静地、客观地对所有资料作认真的分析思考。在浩如烟海,内容丰富的资料中吸取营养,反复思考琢磨许多时候之后,必然会有所发现,这是搞科学研究的人时常会碰到的情形。 浏览捕捉法一般可按以下步骤进行:第一步,广泛地浏览资料。在浏览中要注意勤作笔录,随时记下资料的纲目,记下资料中对自己影响最深刻的观点、论据、论证方法等,记下脑海中涌现的点滴体会。当然,手抄笔录并不等于有言必录,有文必录,而是要做细心的选择,有目的、有重点地摘录,当详则详,当略则略,一些相同的或类似的观点和材料则不必重复摘录,只需记下资料来源及页码就行,以避免浪费时间和精力。第二步,是将阅读所得到的方方面面的内容,进行分类、排列、组合,从中寻找问题、发现问题,材料可按纲目分类,如分成: 系统介绍有关问题研究发展概况的资料; 对某一个问题研究情况的资料; 对同一问题几种不同观点的资料; 对某一问题研究最新的资料和成果等等。第三步,将自己在研究中的体会与资料分别加以比较,找出哪些体会在资料中没有或部分没有;哪些体会虽然资料已有,但自己对此有不同看法;哪些体会和资料是基本一致的;哪些体会是在资料基础上的深化和发挥等等。经过几番深思熟虑的思考过程,就容易萌生自己的想法。把这种想法及时捕捉住,再作进一步的思考,选题的目标也就会渐渐明确起来。希望可以帮到你,有什么不懂的可以问我

论文简介: 利用图像传输理论测量海水的点扩散函数和调制传递函数并且使用维纳滤波器复原模糊的图像。退化方程H(u,v)在水槽中测量得到。在实验中利用狭缝图像和光源,第一步:一维光照射到水中从而得到不同距离下的狭缝图像数据,这样一维的海水点扩散函数就可以通过去卷积得到。又因为点扩散函数的对称性二维的函数模型也可以通过数学方法得到。利用相似的方法调制传递函数也可以得到。这样传输方程便可以得到:

图像可以由下式获得:

论文简介: 论文中提出自然光照下的水下图像退化效果与光偏振相关,而场景有效箱射则与光偏振无关。在相机镜头端安装可调偏振器,使用不同偏振角度对同一场景成两幅图像,所得到的图像中的背景光会有明显不同。通过对成像物理模型的分析,利用这两幅图像和估计出的偏振度,就能恢复出有效场景辐射。他还提出了一个计算机视觉方法水下视频中的退化效应。分析清晰度退化的物理原因发现主要与光的部分偏振有关。然后提出一个逆成像方法来复原能见度。该方法基于几张通过不同偏振方向的偏振片采集图像。

论文简介: 论文提出了一种自适应滤波的水下图像复原方法。通过最优化图像局部对比度质量判决函数,可以估计出滤波器中所使用的参数值。 论文提出一种基于简化的Jaffe-McGlamery水下成像模型的自调谐图像复原滤波器。滤波器的最优参数值是针对每幅图像通过优化一个基于全局对比度的质量准则自动估算的。(对一幅图像滤波器能根据全局对比度自动估计最优参数值),简化的模型理想地适合后向散射较少的漫射光成像.1.首先简化Jaffe-McGlamery水下成像模型:假设光照均匀(浅水区阳光直射),并且忽略后向散射部分.然后基于简化后的成像模型设计一个简单的反滤波器2.将滤波器设计成自适应滤波器。

论文简介: 论文对于调制传递函数给出了详细准确的系统函数信息,水下图像可以用它或点扩散函数进行复原.作者进行实验测量了水质参数得出了这些函数,并用得出的函数进行了图像复原。同时他还建立了一个框架来最大限度复原水下图像,在这个框架下传统的图像复原方法得到了拓展,水下光学参数被包含了进去,尤其时域的点扩散函数和频域的调制传递函数。设计了一个根据环境光学特性进行调整的客观图像质量度量标准来测量复原的有效性。

论文简介: 调制传递函数给出了详细准确的系统函数信息,水下图像可以用它或点扩散函数进行复原.作者进行实验测量了水质参数得出了这些函数,并用得出的函数进行了图像复原。(这一部分在王子韬的论文中有比较详细介绍)

论文简介: 在散射媒介中的正则化图像复原。论文在基于物理原因的复原方法难以去除噪声以及透射率低的基础上,提出一种自适应的过滤方法,即能明显的改善可见性,又能抑制噪声放大。本质上,恢复方法的正规化,是适合变化媒介的透射率,因此这个正则化不会模糊近距离的目标。

论文简介: 论文提出一种基于对边缘进行GSA(灰度规范角度)加权的测量图像清晰度的方法。图像首先被小波变换分解,去除部分随机噪声,增加真实边缘检测的可能性。每个边缘锐度由回归分析方法基于灰度的一个角的正切来确定边缘像素的灰度值之间的斜率和位置。整个图像的清晰度是平均每个测量的GSA的比例加权的第一级分解细节的量,作为图像的总功率,最后通过图像噪声方差自适应的边缘宽度。

论文简介: 论文提出了基于主动偏振的人工光照下水下图像处理技术。在宽场人工光照下的水下成像中,在光源端或相机端安装可调偏振器。通过调整光源或相机端的偏振器,同时拍摄两幅或多幅同一场景的图像,从两幅图像中可估计出背景光的偏振度。结合水下成像物理模型,就可以进行图像复原和场景3D信息估计。该方法操作简单,设备筒易,适用于水下画定目标的成像。 大范围人工照明条件下研究成像过程,基于该成像模型,提出一种恢复object signal的方法,同时能获得粗糙的3D scene structure.相机配备检偏振器,瞬间获取同一场景的两帧图片with different states of the analyzer or light-source polarizer,然后用算法处理获取的图片.它统一并推广了以前提出的基于偏振的方法.后向散射可以用偏振技术降低,作者在此基础上又用图像后处理去除剩余的后向散射,同时粗糙估测出3D场景结构.创新:之前的方法有的认为目标物反射光的偏振度可以忽略(即认为只有后向散射是偏振的);另外还有的认为后向散射的偏振度可以忽略(即认为只有目标物反射光是偏振的)。本文作者认为两者都是部分偏振光。

论文简介: 论文在没有应用任何标准模式、图像先验、多视点或主动照明的条件下同时估算了水面形状和恢复水下二维场景。重点是应用水面波动方程建立紧凑的空间扭曲模型,基于这个模型,提出一个新的跟踪技术,该技术主要是解决对象模型的缺失以及水的波动存在的复杂的外观变化。在模拟的和真实的场景中,文本和纹理信息得到了有效的复原。

论文简介: 论文提出暗通道先验算法复原有雾图像。暗通道先验是一系列户外无雾图像的数理统计,基于观察户外无雾图像的大部分补丁补丁中包含至少一个颜色通道中低强度的像素点。在有雾图像中应用这些先验,我们可以直接的估算雾的厚度,复原成高质量的无雾图像,同时还能获得高质量的深度图。

论文简介: 论文比较研究了盲反卷积算法中的:R-L算法(Richardson-Lucy)、最小二乘法以及乘法迭代法。并且应用了水下图像去噪和威尔斯小角度近似理论推导出点分布函数。通过执行威尔斯的小角度散射理论和模糊度量方法对三种盲反卷积算法进行比较,确定总迭代次数和最佳图像复原结果。通过比较得出:最小二乘算法的复原率最高,但是乘法迭代的速度最好。

论文简介: 论文提出点扩算函数(PSF)和调制解调函数(MFT)的方法用于水下图像复原,应用基于威尔斯小角度近似理论来进行图像增强。在本文中作者分析了水下图像退化的原因,在强化超快激光成像系统中采用了距离选通脉冲的方法,降低了反向散射中的加性噪声。本文对图像的基本噪声模式进行了分析,并使用算术平均滤波首先对图像进行去噪,然后,使用执行迭代盲反褶积方法的去噪图像的初始点扩散函数的理想值,来获得更好的恢复结果。本文通过比较得出,盲反褶积算法中,正确使用点扩散函数和调制解调函数对于水下图像复原的重要性。

论文简介: 本文提出一种图像复原的新方法,该方法不需要专门的硬件、水下条件或现在知识结构只是一个与小波变换的融合框架支持相邻帧之间的时间相干性进行一个有效的边缘保留噪声的方法。该图像增强的特点是降低噪声水平、更好的暴露黑暗区域、改善全局对比、增强细节和边缘显著性。此算法不使用补充信息,只处理未去噪的输入退化图像,三个输入主要来源于计算输入图像的白平衡和min-max增强版本。结论证明,融合和小波变换方法的复原结果优于直接对水下退化图像进行去雾得到的结果。

论文简介: 本文是一篇综述性质的论文。介绍了:1、水下光学成像系统 2、图像复原的方法(对各种图像复原方法的总结) 3、图像增强和颜色校正的方法总结 4、光学问题总结。

论文简介: 论文针对普通水下图像处理的方法不适用于水下非均匀光场中的问题,提出一种基于专业区域的水下非均匀光场图像复原方法,在该算法中,考虑去除噪声和颜色补偿,相对于普通的水下图像复原和增强算法,该方法获得的复原复原的清晰度和色彩保真度通过视觉评估,质量评估的分数也很高。

论文简介: 论文基于水下图像的衰减与光的波长的关系,提出一种R通道复原方法,复原与短波长的颜色,作为水下图像的预期,可以对低对比度进行复原。这个R通道复原的方法可以看做大气中有雾图像的暗通道先验方法的变体。实验表明,该方法在人工照明领域应用良好,颜色校正和可见性得到提高。

论文简介: 作者对各种水下图像增强和复原的算法做了调查和综述,然后对自己的提高水下质量的方法做了介绍。作者依次用到了过滤技术中的同态滤波、小波去噪、双边过滤和对比度均衡。相比于其他方法,该方法有效的提高了水下目标物的可见性。

论文简介: 论文应用湍流退化模型以质量标准为导向复原因水下湍流退化的图像。参考大气湍流图像复原的算法,省略了盐分的影响,只考虑水中波动引起的湍流对水下成像的影响,应用一种自适应的平均各向异性的度量标准进行水下图像复原。经过验证,使用STOIQ的方法优于双频谱的复原方法。

论文简介: 本文提出了一种新的方法来提高对比度和降低图像噪声,该方法将修改后的图像直方图合并入RGB和HSV颜色模型。在RGB通道中,占主导地位的直方图中的蓝色通道以95%的最大限度延伸向低水平通道,RGB通道中的低水平通道即红色通道以5%的最低限度向上层延伸且RGB颜色模型中的所有处理都满足瑞利分布。将RGB颜色模型转化为HSV颜色模型,S和V的参数以最大限度和最小限度的1%进行修改。这种方法降低了输出图像的欠拟合和过拟合,提高了水下图像的对比度。

论文简介: 论文根据简化的J-M模型提出一种水下图像复原的有效算法。在论文中定义了R通道,推导估算得到背景光和变换。场景可见度被深度补偿,背景与目标物之间的颜色得到恢复。通过分析PSF的物理特性,提出一种简单、有效的低通滤波器来去模糊。论文框架如下:1.重新定义暗通道先验,来估算背景光和变化,在RGB的每个通道中通过标准化变换来复原扭曲颜色。2.根据PSF的性能,选择没有被散射的光,用低通滤波器进行处理来提高图片的对比度和可见度。

论文简介: 论文中对当代水下图像处理的复原与增强做了综述,作者阐明了两种方法的模型的假设和分类,同时分析了优缺点以及适用的场景。

参考:

数字图像处理是利用计算机对图像信息进行加工以满足人的视觉心理或者应用需求的行为,应用广泛,多用于测绘学、大气科学、天文学、美图、使图像提高辨识等。这里学术堂为大家整理了一些数字图像处理毕业论文题目,希望对你有用。1、基于模糊分析的图像处理方法及其在无损检测中的应用研究2、数字图像处理与识别系统的开发3、关于数字图像处理在运动目标检测和医学检验中若干应用的研究4、基于ARM和DSP的嵌入式实时图像处理系统设计与研究5、基于图像处理技术的齿轮参数测量研究6、图像处理技术在玻璃缺陷检测中的应用研究7、图像处理技术在机械零件检测系统中的应用8、基于MATLAB的X光图像处理方法9、基于图像处理技术的自动报靶系统研究10、多小波变换及其在数字图像处理中的应用11、基于图像处理的检测系统的研究与设计12、基于DSP的图像处理系统的设计13、医学超声图像处理研究14、基于DSP的视频图像处理系统设计15、基于FPGA的图像处理算法的研究与硬件设计

图像去噪去噪算法研究论文

图像去噪方法的研究摘要图像中的噪声会妨碍人们对图像的理解,而图像去噪的目的就是去除图像中的噪声,提高人们对图像的认识程度,以便对图像作进一步地处理。本论文的主要工作就是对图像的去噪方法进行了一定的介绍,并对其中的一些去噪算法作了进一步地研究,给出了几种新的图像去噪算法,在实验中这几种新的算法也取得了比较理想的去噪效果。 本文为了去除图像噪声,保留图像的边缘特征,提高峰值信噪比PSNR,最终得到清晰的重构图像,进行了研究改进.传统的去噪方法没有区分小波变换后高频部分中噪声信息和边缘特征信息,所以虽然能去除图像中的噪声,但是不能较完全的保留图像的边缘信息。针对这一缺点,本文首先对图像进行边缘检测。通过小波边缘检测方法确定边缘特征点的位置。在对小波变换后的各高频子带进行闺值处理时,保持非边缘特征点所在位置的小波系数在值去噪时不变,只对边缘点小波系数进行处理。这样就能既有效地去除噪声信息又能保留好边缘特征信息。理论分析和实验结果表明,与传统的去噪方法相比,本文方法能较好的保留图像的边缘信息的保留图像的边缘信息,并且提高了图像的峰值信噪比。关键词:图像处理;去噪;空域;频域;小波

1 一种基于数学形态学的灰度图像边缘检测算法 付永庆; 王咏胜 哈尔滨工程大学学报 2005/05 83 773 2 USB摄像头平行双目视觉系统在面积测量中的应用 尤路; 付永庆; 王咏胜 应用科技 2008/02 13 326 3 基于非抽样复轮廓波变换的图像去噪算法研究 王咏胜; 付永庆 光电子.激光 2009/08 2 157 4 复轮廓波包的构造及其图像去噪应用 王咏胜; 付永庆 光子学报 2010/09 3 69 5 复轮廓波包变换及其在SAR图像去斑中的应用 王咏胜; 付永庆 光电子.激光 2009/11 1 66 6 噪声目标的边缘检测算法研究 王咏胜; 付永庆 弹箭与制导学报 2008/06 3 79 分享分享到7 非抽样复Contourlet变换的构造及其图像去噪应用 王咏胜; 付永庆 大连海事大学学报 2009/02 112 8 一种基于模糊聚类的小波图像压缩方法 李佶; 付永庆; 王咏胜 应用科技 2005/03 2 120 【中州期刊联盟】

多图平均法跟多次测量取平均值差不多。多幅图像加权,噪声的强度下降。至于难点,应该是加权权值的选取,以及图像的多少。

数字图像处理图像复原研究论文

数字图像处理是利用计算机对图像信息进行加工以满足人的视觉心理或者应用需求的行为,应用广泛,多用于测绘学、大气科学、天文学、美图、使图像提高辨识等。这里学术堂为大家整理了一些数字图像处理毕业论文题目,希望对你有用。1、基于模糊分析的图像处理方法及其在无损检测中的应用研究2、数字图像处理与识别系统的开发3、关于数字图像处理在运动目标检测和医学检验中若干应用的研究4、基于ARM和DSP的嵌入式实时图像处理系统设计与研究5、基于图像处理技术的齿轮参数测量研究6、图像处理技术在玻璃缺陷检测中的应用研究7、图像处理技术在机械零件检测系统中的应用8、基于MATLAB的X光图像处理方法9、基于图像处理技术的自动报靶系统研究10、多小波变换及其在数字图像处理中的应用11、基于图像处理的检测系统的研究与设计12、基于DSP的图像处理系统的设计13、医学超声图像处理研究14、基于DSP的视频图像处理系统设计15、基于FPGA的图像处理算法的研究与硬件设计

(一)选题毕业论文(设计)题目应符合本专业的培养目标和教学要求,具有综合性和创新性。本科生要根据自己的实际情况和专业特长,选择适当的论文题目,但所写论文要与本专业所学课程有关。(二)查阅资料、列出论文提纲题目选定后,要在指导教师指导下开展调研和进行实验,搜集、查阅有关资料,进行加工、提炼,然后列出详细的写作提纲。(三)完成初稿根据所列提纲,按指导教师的意见认真完成初稿。(四)定稿初稿须经指导教师审阅,并按其意见和要求进行修改,然后定稿。一般毕业论文题目的选择最好不要太泛,越具体越好,而且老师希望学生能结合自己学过的知识对问题进行分析和解决。不知道你是否确定了选题,确定选题了接下来你需要根据选题去查阅前辈们的相关论文,看看人家是怎么规划论文整体框架的;其次就是需要自己动手收集资料了,进而整理和分析资料得出自己的论文框架;最后就是按照框架去组织论文了。你如果需要什么参考资料和范文我可以提供给你。还有什么不了解的可以直接问我,希望可以帮到你,祝写作过程顺利毕业论文选题的方法:一、尽快确定毕业论文的选题方向 在毕业论文工作布置后,每个人都应遵循选题的基本原则,在较短的时间内把选题的方向确定下来。从毕业论文题目的性质来看,基本上可以分为两大类:一类是社会主义现代化建设实践中提出的理论和实际问题;另一类是专业学科本身发展中存在的基本范畴和基本理论问题。大学生应根据自己的志趣和爱好,尽快从上述两大类中确定一个方向。二、在初步调查研究的基础上选定毕业论文的具体题目在选题的方向确定以后,还要经过一定的调查和研究,来进一步确定选题的范围,以至最后选定具体题目。下面介绍两种常见的选题方法。 浏览捕捉法 :这种方法就是通过对占有的文献资料快速地、大量地阅读,在比较中来确定论文题目地方法。浏览,一般是在资料占有达到一定数量时集中一段时间进行,这样便于对资料作集中的比较和鉴别。浏览的目的是在咀嚼消化已有资料的过程中,提出问题,寻找自己的研究课题。这就需要对收集到的材料作一全面的阅读研究,主要的、次要的、不同角度的、不同观点的都应了解,不能看了一些资料,有了一点看法,就到此为止,急于动笔。也不能“先入为主”,以自己头脑中原有的观点或看了第一篇资料后得到的看法去决定取舍。而应冷静地、客观地对所有资料作认真的分析思考。在浩如烟海,内容丰富的资料中吸取营养,反复思考琢磨许多时候之后,必然会有所发现,这是搞科学研究的人时常会碰到的情形。 浏览捕捉法一般可按以下步骤进行:第一步,广泛地浏览资料。在浏览中要注意勤作笔录,随时记下资料的纲目,记下资料中对自己影响最深刻的观点、论据、论证方法等,记下脑海中涌现的点滴体会。当然,手抄笔录并不等于有言必录,有文必录,而是要做细心的选择,有目的、有重点地摘录,当详则详,当略则略,一些相同的或类似的观点和材料则不必重复摘录,只需记下资料来源及页码就行,以避免浪费时间和精力。第二步,是将阅读所得到的方方面面的内容,进行分类、排列、组合,从中寻找问题、发现问题,材料可按纲目分类,如分成: 系统介绍有关问题研究发展概况的资料; 对某一个问题研究情况的资料; 对同一问题几种不同观点的资料; 对某一问题研究最新的资料和成果等等。第三步,将自己在研究中的体会与资料分别加以比较,找出哪些体会在资料中没有或部分没有;哪些体会虽然资料已有,但自己对此有不同看法;哪些体会和资料是基本一致的;哪些体会是在资料基础上的深化和发挥等等。经过几番深思熟虑的思考过程,就容易萌生自己的想法。把这种想法及时捕捉住,再作进一步的思考,选题的目标也就会渐渐明确起来。希望可以帮到你,有什么不懂的可以问我

张玉君史鉴文

(地矿部航空物探总队研究所)

摘要 本文报导了关于深海洋底多金属结核照片的图像复原和图像处理方法技术研究结果。海底照片存在的主要问题是:光照分布不均匀、有时聚焦欠佳、常有铁丝影像、有时有泥浆局部干扰等。本文剖析了光照分布的数学模型,推导了倾斜相机系统和水平相机系统条件下的光照分布及感光光强分布公式。本工作利用图像处理系统研究成功了一套适用于海底照片的图像复原和图像处理技术,给出了详细流程图。做为实例本文附有六幅图片,说明所研究的方法在去除光照不均匀、铁丝干扰、提高反差、增强分辨率、自动分类、科学统计覆盖率等的显著效果,以及通过局部放大研究结核的结构和形态方面的可能性。本文所报导的方法是改善和研究珍贵海底照片的重要工具。

一、前言

地球各大洋海底广泛赋存有锰结核、铁锰结核、多金属结核等丰富宝藏;为了探明其分布和储量,各国在公海正在开展着深海多金属结核的勘探工作,这是一项具有深远意义的造福后代的工作。这种勘探工作所用手段之一是海底照相,根据海底相片估算多金属结核的覆盖率和储量,并对结核的形态进行研究。

深海多金属结核照相由于拍摄环境及装置存在着一系列问题,因此提出图像复原和处理的要求。

在深海洋底照相需要外加光源,数千米深的海水将阳光几乎全部吸收掉了,外加光源与相机的位置相对固定,他们之间的距离大约为20~30cm。相机系统由缆绳绞车控制下降至海洋底,根据重锤触底信号再将相机升起一个高度(~3m),即拍照;这一距离根据海况变化一次下水调整一次。海况是指:海风、洋流、底质等情况。由于洋流的存在,相机系统可能倾斜,拍摄高度随之也有所变化。所获海底多金属结核照片存在一系列影响分辨和研究的问题,主要有:

(1)光照分布不均匀,其中心与照片中心偏离,甚至由于相机倾斜,造成光照分布失去对称规律;

(2)有时聚焦欠佳;

(3)常常出现有铁丝干扰影像;

(4)有时有因重锤搅混海底沉积物而局部模糊。

利用数字图像技术处理深海多金属结核照片的目的在于:

(1)通过图像处理改善照片的质量,主要是图像复原;

(2)通过分类技术分辨裸露核、浅埋及深埋核,并对各类面积进行精确计算,从而得到覆盖率的科学数据;

(3)结核形态研究。

为了达到以上目的首先要对海底照片进行数字化,形成图像数据文件,即可利用数字图像处理系统进行处理。

数字图像处理技术随着计算机技术、遥感科学的发展而在近20年得到极为迅速的发展、成熟与应用。正如图像增强一样,图像复原技术的主要目的,在某种意义上说,是要改善给定的图像。复原是一个过程,这一过程试图利用退化现象的某种先验知识,把已经退化了的图像加以重建或恢复。因此,复原技术是把退化模型化,并运用相反的过程以便恢复原来的图像。

Cannon博士(1983,“Applied Optics”)研究了一种图像复原技术,或称图案去除技术,适用于:规则图形(如纺织品)上手纹处理、散焦图像改善、卫片上探测器与探测间噪声消除、曝光过程中的平移模糊的清晰化等。Srinivasan(1986,“Digital Design”)也阐述了此方法。此技术可分解为明确的三个步骤:

(1)对图像中的“模糊”或“图案”问题进行估计,即分析退化问题的实质;

(2)生成一个近似模型或频率域滤波器,以便准备进行复原或图案去除;

(3)利用威纳(Wiener)滤波器或富里叶(Fouriel)滤波器对图像进行改善。

海底结核图像所存在的具体退化问题有自己的独特性,但Cannon所提出的方法原则仍有重要参考价值。

二、深海多金属结核图像退化问题的剖析

1.光照计算

前言所述噪声中,影响最大的是光照不均匀问题,现将此问题进行数学分析。

已知:光源可认为是点光源;海底假定为一平面,所拍照片对应于abcd四边形;相机底片中心f与光源中心f´之间距离为l,由于相机与光源为硬固定,因此光源永远位于底片平面长对称轴的延长线上;底片中心与abcd四边形的对角线交点o的距离为h;相机倾斜角为α;光源源强为Q,见图1。

求解:写出abcd四边形中任意一点的光照强度函数F=f(Q,h,a,l,x,у)。

解:通过o点作x、y座标轴,任意点g,其座标为x,y,与光源间距离为R。如写出R公式,即求出F方程的表达式。

做h´∥于h,由g点向h´做垂线gK。

张玉君地质勘查新方法研究论文集

光照强度表达示为:当底片平面平行于海底平面时,图1简化为图2,式(4)简化为(5)式。

张玉君地质勘查新方法研究论文集

从图2可见:

图1相机系统倾斜条件下的光照强度计算示意图

图2相机系统水平条件下的光照强度计算示意图

张玉君地质勘查新方法研究论文集

若(5)式中y=0,

则:

张玉君地质勘查新方法研究论文集

(6)式为x轴上各点的光照强度,显然这是一个以о´点为中心的对称曲线,示意于图3。

图3沿x轴光照强度分布曲线

而在abcd平面上光照分布则为一个曲面,它由上图中之曲线,以mo ′为轴旋转而成。

对于式(4),即对于相机系统发生倾斜时,此曲线及曲面显然将变得复杂化,并将失去轴对称性。

2.感光光强计算

在拍照时还要考虑到底片各点感光光强同样与距离有关。

令L为感光光强函数,用与前述类似方法可求出对应于倾斜和水平两种状态L的表达式。

对于倾斜相机系统:

张玉君地质勘查新方法研究论文集

对于水平相机系统,显然公式可较简单:

张玉君地质勘查新方法研究论文集

图像复原的实质是试图用理论的或试验的方法建立起深海结核图像的感光光强分布本底图像,从原图中扣除,便可去除光照不均匀所造成的失真,达到图面基本改善。

从(8)式可知,实际上α角是最大的难点。试图利用底片或照片本身,逆演求解α角也将是十分困难的。故本研究用试验方法建立光强分布本底图像,较好地实现了复原。

三、深海多金属结核图像复原和处理方法流程

经研究,建立了图4所示之方法流程:

图4深海多金属结核图像复原和处理方法流程

流程图由20个步骤组成,其2—8属图像复原,9—20属图像处理,1为准备工作。

数字化使用I2S公司所产C4500扫描仪,将135底片上的短边方向扫成512行,长边方向对中舍去两边。若扫描所获图像不足512行,则进行适当拼接,这是为了减少快速富氏变换时的边界效应。

挖补是为了解决铁丝干扰,否则不仅图面不完整,而且在频率域处理时,干扰范围还会扩大。

在频率域适当选取低通滤波参数,用指数滤波可以获得近似的光强本底分布图像,并适当选取比例因子从原图中扣除,即可得到基础图像。

利用基础图像通过聚类分析,并提取其中对应于裸露核,浅埋核及深埋核三个类别。叠加后,进行邻域滤波,去除零星干扰,便可进行分类统计了。

对于泥浆搅动干扰区,必要时可在统计前挖去,减少这种干扰所带来的误差。

四、图像复原和处理效果

为了开展此项研究,由广州海洋地质调查局提供了三张海底照相底片,其质量分别属于优、中、差三级。通过实验,均获得了成功的结果。现以中等一级的图像复原和处理结果为例,展示方法的效果。

图片1为原始图像,它的主要问题是:反差小,光强不均匀,存在铁丝干扰,行数不足512。

图片2为经过拼接,挖补和增强的图像,图中反差有所改善,消除了铁丝干扰,补足了行数,但光强不均匀问题仍然存在。

图片3为复原后的图像,成功地克服了光强不均匀问题,为计算机自动分类提供了前提。

图片4为分类处理后所提取裸露核(深灰),浅埋核(白色)和深埋核(浅灰)的合成图像。

图片5为对比图像。左上角为三类核的合成图像,右上角为裸露核图像,左下角为浅埋核图像,右下角为深埋核图像。

通过统计和计算,得到各类结核的象元数、全图总象元素及各类结核的覆盖率。见下表:

张玉君地质勘查新方法研究论文集

此外对优质底片,经过上述处理后,还做了局部放大,经四倍放大后的图像(图片6)对于结核形态研究很有用,从图片6可以清晰地看到环形,盘形、菜花形多金属结核的形态和结构。

图片1

图片2

图片3

图片4

图片5

图片6

五、几点结论

本工作所研究的深海多金属结构图像复原方法可以成功地去除光强不均匀造成的干扰,并可消除铁丝影像干扰,增强清晰度,提高反差,效果显著。

经复原后的图像,具备了计算机自动分类处理的条件,经聚类分析成功地提取了裸露核、浅埋核和深埋核信息,并精确地统计了各自的象元数,求出了各类核的覆盖率。

通过局部放大,有可能进一步研究多金属结核的结构以及形态。

本文所研究成功的方法,无疑对于探明数千米以下深海海底蕴藏的丰富矿产资源有着重要意义,希望能投入半生产性批量处理应用。这种方法当然也可以用于其他方面。

本工作得到广州海洋地质调查局王光宇同志、陈邦彦同志、张国祯同志的支持,本所朱月娥同志多次一起商讨,杨星虹同志拍摄了图片,一并向他们致谢。

参考文献

[1]Cannon M.,Lehar A., Preston F.: Background pattern removal by power spectral filtering, Applied Optics, .

[2]SrinivasanR.:Software image restoration techinques,Digital Design,.

A STUDY OF IMAGE RECONSTRUCTION AND IMAGE PROCESSING TECHNIQUES FOR PHOTOS OF DEEP-SEA POLYMETALLIC NODULES

Zhang Yu jun,Shi Jian wen

(Institute of Aerogeophysical Survsy,Ministry of Geologyand Mineral Resources)

AbstractThis paper reports the results of research on image reconstruction and image processing techniques for photos of polymetallic nodules from the bottom of deep major troubles with submarine photos include uneven distribution of illuminance, unsatisfactory focusing,frequent existence of iron wire image, local mud interference present paper analyses the mathematic model for distribution of illuminance and derives, the formulae for illuminance distribution and light sensitivity distribution under the conditions of inclining camera system and horizontal camera image processing system,we have successfully developed a suite of image reconstruction and image processing techniques suitable for submarine photos and drawn a datailed flow examples,four pictures are attached to this paper, which illustrate the obvious effects of our method in such aspects as eliminating uneven illuminance and iron wire interference,raising contrast and resolution power, automatic classification and scientific statistical analysis of coverage, and indicate the possibility of examining textures and shapes of the nodules by means of partial method described in this paper serves as an important tool for improving and studying precious submarine photos.

原载《物探与化探》,1989,。

图像复原技术及其MATLAB实现摘 要图像复原的目的是从观测到的退化图像重建原始图像,它是图像处理、模式识别、机器视觉等的基础,在天文学、遥感成像、医疗图像等领域获得了重要应用。运动模糊图像的复原是图像复原的重要组成部分。由运动模糊图像复原出原图像关键问题是获取点扩展函数,模糊方向和长度的鉴别至关重要。本文通过对运动模糊图像的频域幅度图的黑带条纹(即图像零点个数)分析,计算出运动模糊PSF的参数。获得PSF的参数后,本文主要采用了逆滤波法、维纳滤波法、最小线性二乘法、Richardson-Lucy算法对模糊图像进行复原,并对各种复原方法的结果进行了分析与对比。关键词:图像复原;运动模糊;模糊方向;模糊长度引 言图像复原是图像处理领域一个具有现实意义的课题。运动模糊图像的研究越来越受到关注,这种模糊是成像过程中普遍存在的问题,其复原在许多领域都有广泛的应用。实际上,图像复原设计三个方面的内容:退化图像的成像模型,图像复原算法和复原图像的评价标准。不同的成像模型、问题空间、优化规则和方法都会导致不同的图像复原算法,适用于不同的应用领域。现有的复原方法概括为以下几个类型:去卷积复原算法、线性代数复原、图像盲反卷积算法等,其他复原方法多是这三类的衍生和改进。其中,去卷积方法包括维纳去卷积、功率谱平衡与几何平均值滤波等,这些方法都是非常经典的图像复原方法。但是需要有关于原始图像、降质算子较多的先验信息和噪声平衡性的假设只适合于不变系统及噪声于信号不相关的情形,特别是降质算子病态的情况下,图像复原结果还不太理想。由于图像复原技术在图像处理中占有重要的地位,已经形成了一些经典的常用图像复原算法,如无约束最小二乘法、有约束最小二乘方法、逆滤波、维纳、最大熵复原等,至今还被广泛使用。但这些复原算法都是假设系统的点扩散函数PSF(即系统对图像中点的脉冲响应,是导致图像退化的原因)为已知,实际情况是系统的点扩散函数由于大气扰动、光学系统的相差、相机和对象之间的相对运动等多种因素的影响,往往是未知的。这就需要人们用某种先验知识在系统的点扩散函数未知时进行估计,然而这种先验知识并不容易取得也不够精确,这就需要我们在对己模糊图像分析和处理的基础之上估计最逼近的PSF。在运动模糊方向的鉴别方面,由于匀速直线运动的点扩散函数是矩形函数,其模糊图像对应的频域上有周期性的零值条纹,运动方向与零值条纹方向相垂直,本文就是借用此法获取模糊图像的PSF参数。本文主要针对运动模糊图像的复原进行研究,讨论分析了匀速直线运动模糊的退化模型,研究了运动方向和模糊尺度的估计,介绍了常用的几种图像复原方法。对模糊图像用几种复原算法分别进行了复原,根据复原结果,讨论分析了各算法的优缺点及适用的恢复环境。第1章 绪论 研究背景图像复原是数字图像处理中的一个重要课题。它的主要目的是改善给定的图像质量并尽可能恢复原图像。图像在形成、传输和记录过程中,受多种因素的影响,图像的质量都会有不同程度的下降,典型的表现有图像模糊、失真、有噪声等,这一质量下降的过程称为图像的退化。图像复原的目的就是尽可能恢复被退化图像的本来面目。在成像系统中,引起图像退化的原因很多。例如,成像系统的散焦,成像设备与物体的相对运动,成像器材的固有缺陷以及外部干扰等。成像目标物体的运动,在摄像后所形成的运动模糊。当人们拍摄照片时,由于手持照相机的抖动,结果像片上的景物是一个模糊的图像。由于成像系统的光散射而导致图像的模糊。又如传感器特性的非线性,光学系统的像差,以致在成像后与原来景物发生了不一致的现象,称为畸变。再加上多种环境因素,在成像后造成噪声干扰。人类的视觉系统对于噪声的敏感程度要高于听觉系统,在声音传播中的噪声虽然降低了质量,但时常是感觉不到的。但景物图像的噪声即使很小都很容易被敏锐的视觉系统所感知。图像复原的过程就是为了还原图像的本来面目,即由退化了的图像恢复到能够真实反映景物的图像。在交通系统、刑事取证中图像的关键信息至关重要,但是在交通、公安、银行、医学、工业监视、军事侦察和日常生活中常常由于摄像设备的光学系统的失真、调焦不准或相对运动等造成图像的模糊,使得信息的提取变得困难。但是相对于散焦模糊,运动模糊图像的复原在日常生活中更为普遍,比如高速运动的违规车辆的车牌辨识,快速运动的人群中识别出嫌疑人、公安刑事影像资料中提取证明或进行技术鉴定等等,这些日常生活中的重要应用都需要通过运动模糊图像复原技术来尽可能地去除失真,恢复图像的原来面目。因此对于运动模糊图像的复原技术研究更具有重要的现实意义。 相关领域的研究现状及存在的问题图像恢复是数字图像处理中的一个重要分支,它研究的是如何从所得的退化图像中以最大的保真度复原出真实图像。成像系统的缺陷,传播媒介中的杂质,以及图像记录装置与目标之间的相对运动等因素,都不可避免地造成了图像的某些失真和不同程度的降质。然而在众多的应用领域中,又需要清晰的、高质量的图像,因此,图像恢复问题具有重要的意义。与图像增强相似,图像复原的目的也是改善图像的质量。图像复原可以看作图像退化的逆过程,是将图像退化的过程加以估计,建立退化的数学模型后,补偿退化过程造成的失真,以便获得未经干扰退化的原始图像或图像的最优估计值,从而改善图像质量。图像复原是建立在退化的数学模型基础上的,且图像复原是寻求在一定优化准则下的原始图像的最优估计,因此,不同的优化准则会获得不同的图像复原,图像复原结果的好坏通常是按照一个规定的客观准则来评价的。运动模糊图像的恢复是图像恢复中的重要课题之一,随着科学技术的不断发展,它在各个领域中的应用越来越多,要求也越来越高,可广泛应用于天文、军事、道路交通、医学图像、工业控制及侦破领域,具有重要的现实意义。图像复原作为图像处理的一个重要领域,对于该问题国内外展开了诸多关键技术的研究。实际上,图像复原涉及三个方面的内容:退化图像的成像模型,图像复原算法和复原图像的评价标准。不同的成像模型、问题空间、优化规则和方法都会导致不同的图像复原算法。适用于不同的应用领域。现有的复原方法概括为以下几个类型:去卷积复原算法、线性代数复原、图像盲反卷积算法等,其他复原方法多是这三类的衍生和改进。其中,去卷积方法包括维纳去卷积、功率谱平衡与几何平均值滤波等,这些方法都是非常经典的图像复原方法。但是需要有关于原始图像、降质算子较多的先验信息和噪声平衡性的假设只适合于不变系统及噪声于信号不相关的情形,特别是降质算子病态的情况下,图像复原结果还不太理想。线性代数复原技术是基于已知降质算子和噪声的统计特征,从而利用线性代数原理的复原技术,它为复原滤波器的数值提供了一个统一的设计思路和较透彻的解释。但是当降质函数有接近零的特征值时,复原的结果对噪声特别敏感,且该方法是把整幅图像一并处理,计算量大,同时也没有考虑纹理、边界等高频信号与噪声的区别,这将使纹理、边界等重要特征在图像复原过程中被破坏。针对这些问题,国外主要在改进算法的效率上做了许多工作,如全局最小二乘法、约束总体最小二乘法和正则化约束总体最小二乘法。图像盲反卷积是图像复原的另一个重要的手段,它针对没有或少有关于降质函数和真实信号灯先验知识的复原问题,直接根据退化图像来估计降质函数和真实信号。目前有以下几种算法:零叶面分离法、预先确定降质函数法、三次相关法、迭代盲反卷积法等。这些算法在先验信息不足的情况下对降质图像进行复原,由于原始图像以及点扩展函的先验知识只是部分已知的,造成图像复原的解往往不唯一,而且解的好坏与初始条件的选择以及附加的图像假设等直接有关。同时,由于加性噪声的影响使得图像的盲目复原成病态。即若对点扩展函数直接求逆进行复原,通常会带来高频噪声放大的问题导致算法性能的恶化,所以当图像的信噪比水平较低时获得的结果往往不太理想。正则化方法作为一种解决病态反问题的常用方法,通常用图像的平滑性作为约束条件,但是这种正则化策略通常导致复原图像的边缘模糊。为了克服边缘退化问题,最近几年,不少学者对各种“边缘保持”的正则化方法进行了比较深入的研究,提出了一些减少边缘退化的正则化策略,这些策略通常需要引入非二次正则化泛函,从而使问题的求解成为一个非线性问题。沿着这一思路,Geman和Yang提出了“半二次正则化”的概念来解决这种策略中出现的非线性优化问题。其后,Charbonni等人在此基础上研究了一种新的半二次正则化方法。从而可以利用确定性算法来得到问题的最优解。另一个较新的发展使Vogel等人提出的基于全变差模型的图像复原算法。尽管这些算法都在一定意义上提高了复原图像的质量,但边缘模糊的问题并未得到理想的解决。另外,近年来小波的理论得到迅速发展,并光法应用于图像复原中。基于小波变换的迭代正则化图像复原算法,兼顾抑制噪声的增长和保留图像的重要边界。具有噪声估计能力的图像恢复正则化方法。Belge等人以广义高斯模型作为小波系数的先验分布,提出了一种小波域边缘保持正则化的方法。同时给出了小波域图像复原的一般框架,但其复原方法相对于传统复原方法提高的并不显著,赵书斌等人以混合高斯模型逼近小波系数的分布,并引入小波域隐马尔可夫模型作为自然图像的先验概率模型对图像超分辨率复原问题进行正则化,复原效果不错,但该方法还是不能避免计算量过大的缺点。从图像复原的Bayesian框架出发,小波域局部高斯模型的线性图像复原方法,该方法较好的再现了图像的各种边缘信息,取得不错的复原效果。2 逆滤波复原图5-1逆滤波复原过程图,图(a)是选取的原始图像,图(b)是利用MATLAB对原始图像进行运动模糊和加噪声仿真而生成的仿真图像,模糊长度为10个像素。经过逆滤波复原图像为图(c)。(a)原图像 (b)模糊加噪图像(c)复原图像图5-1 逆滤波复原过程从恢复出来的图5-1(c)可以看出复原效果不理想,出现较大的振铃现象。从理论分析上看是由于一般情况下,逆滤波复原不能正确估计退化函数的零点,因此必须采用一个折中的方法进行解决。实际上,逆滤波不用,而是采用另外一个关于的函数。函数称为转移函数。改进方法为(5-1)式中K和d均为小于1的常数。采用逆滤波对运动模糊加噪图像进行复原。在噪声相同情况下,参数K分别选取、、、、和。图中(a)-(f)为对应参数下的复原图像。通过转移函数替代原退化模型得到图5-2逆滤波减小振铃现象复原图像。(a)k= (b) k=(c)k= (d) k=(e) k= (f) k=图5-2 逆滤波减小振铃现象复原图像图从复原结果图5-2可以看出随着K值的增大复原效果逐渐变差,K=到之间复原效果较好。从理论上分析,逆滤波方法不能正确估计退化函数的零点。采用一个折衷的方法加以解决。一般情况,可以将图像的退化过程视为一个具有一定带宽的带通滤波器,随着频率的升高,该滤波器的带通特性很快下降,即的幅度随着平面原点的距离的增加而迅速下降,而噪声项的幅度变化是比较平缓的。在远离平面的的值就会变得很大,而对于大多数图像来说,却变小,在这种情况下,噪声反而占优势,自然无法满意的恢复出原图像。这一规律说明,应用逆滤波时仅在原点领域采用方能有效。 有约束最小二乘方复原的实现通过MATLAB仿真来实现有约束的最小二乘方复原,图5-3是有约束的最小二乘方复原图。分别取参数为0、1、、、、对应图5-3里面的(a)-(f)。图5-3 有约束最小二乘方在不同参数下的恢复情况图 维纳滤波复原的实现图(a)是选取的原始图像,图(b)是利用MATLAB对原始图像进行运动模糊和加噪声仿真而生成的仿真图像,模糊长度为5个像素。采用维纳滤波恢复算法对模糊图像进行恢复,在加噪声的情况下,参数k分别选取0.0001、0.001、0.005、0.01、和1。各种图中(c)-(h)为对应参数下的恢复图像。图5-4有噪声下维纳滤波在不同参数下的恢复情况。(a)原始图像 (b)含噪声运动模糊图像d=5,v=(c) K= (d) K=(e) K= (f) K=(g) K= (h) K=1图5-4 有噪声下维纳滤波在不同参数下的恢复情况可以看出,恢复图像还是都有一定的振铃现象。K=时,图像振铃效应比较小,但其噪声很大。k=相对前一幅恢复图像振铃效应明显一点,但噪声有所减少。k=和k=的恢复效果也是看起来区别不明显,虽然它们的噪声都减少了,但图像整体都相对前面有明显的模糊,且振铃效应明显。K=的模糊程度比较大,而k=1时,图像最模糊,且亮度很暗。总的看来,主观评价认为k=时的恢复效果最清楚,恢复质量最好。K=时次之,k=1时的效果最差。利用公式(5-1)与(5-2)计算出平均平方误差,如表5-1所示:表5- 1平均平方误差客观评价方法得分参数k 1平均平方误差(M) 2861 6463 6937 6576 2861 2513从表5-1可以看出,采用平均平方误差准则时K=的平均平方误差和K=一样,但是其对应的图像很模糊。对于非迭代方法的维纳滤波恢复法,k值的选取对图像恢复质量有很重要的影响。从上面实验结果可以看出,虽然对于每幅特定图像的评价得分不尽相同,但基本上当k值在[,]的范围取值时,恢复图像质量最好。从理论上分析,维纳滤波复原的图像,在图像的频率特征和附加噪声已知的情况下,采用维纳滤波去卷积比较有效。维纳滤波复原法不存在极点,即当很小或变为零时,分母至少为K,而且的零点也转换成了维纳滤波器的零点,抑制了噪声,所以它在一定程度上克服了逆滤波复原方法的缺点。 Richardson-Lucy复原的实现图(a)是原始图像,图(b)是对原图进行运动模糊仿真而生成的仿真图像,模糊长度为10个像素,模糊方向为水平方向。采用Richardson-Lucy恢复算法对模糊图像进行恢复,迭代次数参数分别选取20次、50次、100次、150次、200次和300次。所有图的(c-h)为对应迭代次数下的复原图像。(a) 原图像 (b) 水平运动10像素加噪声图像(c) 迭代20次 (d) 迭代50次(e) 迭代100次 (f) 迭代150次(g) 迭代200次 (h) 迭代300次图5-5 R-L算法在不同参数下的复原图像从图5-5可以看出,恢复的图像整体差别不大。从图像人物、背景等分辨,质量随着迭代次数增大而提高。迭代100次以后恢复效果区别不大,仔细辨认,迭代200次和300次更好一些.所以主观评价认为200次或300次时复原质量最好。本文通过MATLAB编程,利用公式(5-1)、(5-2)计算出图5-5:(c)-(h)各恢复图像的平均平方误差。通过计算平均平方误差的倒数(M)来做客观分析。客观分析如表5-2:表5- 2复原图像与原图像的平均平方误差迭代次数 20 50 100 150 200 300平均平方误差(M) 4348 4762 5000 5263 5263 5263从表5-2可以看出,采用均方误差准则评价时,平均平方误差差别不大。总体上随着迭代次数增加分数增大,迭代次数为150次后平均平方误差一样。上述分析表明,在R-L恢复算法下,对于这幅图像,传播波方程客观评价准则和平均平方误差准则的评价结果基本一致,并和主观评价结果吻合。从理论上分析,Richardson-Lucy算法能够按照泊松噪声统计标准求出与给定PSF卷积后,最有可能成为输入模糊图像的图像。PSF已知但是图像噪声信息未知时,也可以使用这个函数进行有效的工作。随着复原迭代的次数增加,可以提高复原图像的似然性,最终将会收敛在具有最大似然性处。结论与展望图像复原是图像处理领域一个具有现实意义的课题。运动模糊图像的研究越来越受到关注,这种模糊是成像过程中普遍存在的问题,其复原在许多领域都有广泛的应用。图像复原需要根据相应的退化模型知识重建或恢复原始的图像。也就是说,图像复原技术就是要将图像退化的过程模型化,并由此采取相反的过程以得到原始图像。运动模糊是由于在拍摄过程中相机与景物之间相对运动而产生,因此对于匀速直线运动造成的运动模糊图像来说,图像退化模型的两个重要参数相对运动的方向和运动模糊尺度的估计就成了图像复原的关键问题。本文以匀速直线运动造成的模糊图像为基础,研究退化函数的参数估计方法,所做的工作及创新之处总结如下:论文的工作总结(1)论文研究了模糊图像尤其是水平方向运动模糊图像的退化模型,任意方向的匀速直线运动模糊图像只需要通过坐标旋转至水平方向,其图像特征的描述可由水平匀速直线运动模糊图像类推得出。(2)论文研究了运动方向和模糊尺度的估计,通过对运动模糊图像的频域幅度图的黑带条纹(即图像零点个数)分析来估算出运动模糊PSF的参数运动模糊方向和运动模糊长度)的,同时通过查阅文献获得另一种对模糊尺度的估算即对模糊图像进行一阶微分,然后进行自相关运算,可得到一条鉴别曲线,曲线上会出现对称的相关峰,峰值为负,两相关峰之间的距离等于运动模糊长度。(3)对于运动模糊图像的恢复,介绍分析了逆滤波、有约束的最小二乘方、维纳滤波和Richardson-Lucy四种常用的恢复方法。并且采用Richardson-Lucy迭代算法和维纳滤波方法在选取不同参数的情况下对运动模糊图像进行了恢复。利用逆滤波方法进行恢复时,复原图像的效果整体不是很好,存在着较明显的振铃效应,加噪情况下复原图像的噪声也比较严重。本文通过理论分析及仿真,探索出减小振铃现象的一些方法,但还不够完善,今后还需要继续深入研究如何改进算法、减少振铃效应和噪声,以提高复原图像的质量。针对有约束的最小二乘方、维纳滤波复原方法,本文主要通过参数变化来控制复原效果,最终选出最优准则。Richardson-Lucy迭代算法从理论上看是迭代次数越大,复原效果越好。考虑到程序的有效性,本文采用了最大为迭代300次。从主客观评价对复原图像的评价来看迭代次数超过150次以后效果就基本一样。展望由于本人的能力有限,对图像复原技术的研究还不够系统、不够深入,无论在理论上,还是在工程应用中,还需要做大量深入、细致的研究工作。因此在这方面的研究还只是个开始,很多地方都需要改进与提高,例如:(1)运动模糊图像的复原大多是对整幅图像进行全局的复原,然而在实际应用中并非完全如此。例如,由于物体运动而产生的相对运动,其运动模糊只出现在物体运动的轨迹上,而背景是清晰的。在这种情况下就不能对全局进行处理,应首先分割出运动模糊区域,然后再进行参数估计,图像复原。如何分割运动模糊区域,分割的依据如何等将成为以后研究工作的一部分。(2)本文研究的运动模糊图像参数估计算法仅限于匀速直线运动造成的模糊,而缺乏对非匀速的、轨迹为曲线的运动模糊研究,且得到的参数还具有一定的误差。参考文献[1] 杨帆,等.数字图像处理与分析(第二版)[M].北京:航空航天大学出版社,2007.[2] 黄爱民,等.数字图像处理分析基础[M].北京:中国水利水电出版社,2005.[3] 孙兆林.MATLAB 图像处理[M].北京:科学出版社,2003.[4] 贾永红.计算机图像处理与分析[M].武汉:武汉大学出版社,2001.[5] 姚敏.数字图像处理[M].北京:机械工业出版社,2006.[6] 孟永定,马佳.基于MATLAB实现数字图像恢复[J].电脑学习,2007,1(1),30-32.[7] 刘红岩,徐志鹏.基于MATLAB的数字图像恢复[J].科技信息(学术研究).2008,3(12),23-26.[8] 孟昕,张燕平.运动模糊图像恢复的算法研究与分析[J].计算机技术与发展,2007,17(8):74-76.[9] 孟昕,周琛琛,郝志廷.运动模糊图像恢复算法相关研究发展概述[J].安徽电子信息职业技术学院学报,2008,7(6),38-41.[10] 曾志高,谭骏珊.匀速直线运动模糊图像的恢复技术研究[J].陕西理工学院学报(自然科学版),2006,22(2),36-38.[11] 李云浩,王建设.匀速直线运动模糊图像的退化数学模型试验研究[J].江西理工大学学报,2006,27(4),28-30.[12] 谢伟,秦前清.基于倒频谱的运动模糊图像PSF参数估计[J].武汉大学学报(信息科学版).2008,5(02),30-32.[13] Banham Mark M,Katsaggelos A image restoration. IEEE Signal Processing Magazine . 1997.[14] Mccallum B deconvolution by simulated annealing. Optics Communitions . 1990.[15] Hardie C and Boncelet C filters: A class rank order based filters for smoothing and sharpening. IEEE Transactions on Signal Processing . 1993.附录C 主要源程序(1)模糊图像的傅里叶频谱获取j=imread('车牌.jpg');figure(1);imshow(j);title('原图像');len=20;theta=30;psf=fspecial('motion',len,theta);j1=imfilter(j,psf,'circular','conv');figure,imshow(j1);title('PSF模糊图像');J=rgb2gray(j);K=fft2(J); %傅里叶变换M=fftshift(K); %直流分量移到频谱中心N=abs(M); %计算频谱幅值P=(N-min(min(N)))/(max(max(N))-min(min(N)))*225;%归一化Figure;imshow(P);title('原图像的傅里叶变换频谱');J1=rgb2gray(j1);K1=fft2(J1); %傅里叶变换M1=fftshift(K1); %直流分量移到频谱中心N1=abs(M1);%计算频谱幅值P1=(N1-min(min(N1)))/(max(max(N1))-min(min(N1)))*225;%归一化Figure;imshow(P1);title('模糊图像的傅里叶变换频谱');(2)模糊长度获取程序f1=rgb2gray(j1);f1=im2double(f1);h = fspecial('Sobel'); %Sobel算子J = conv2(f1,h,'same'); %Sobel算子微分IP=abs(fft2(J)); %图像能量谱密度S=fftshift(real(ifft2(IP)));figure,plot(S);title

图像压缩算法研究论文

数字图像压缩技术的研究及进展摘要:数字图像压缩技术对于数字图像信息在网络上实现快速传输和实时处理具有重要的意义。本文介绍了当前几种最为重要的图像压缩算法:JPEG、JPEG2000、分形图像压缩和小波变换图像压缩,总结了它们的优缺点及发展前景。然后简介了任意形状可视对象编码算法的研究现状,并指出此算法是一种产生高压缩比的图像压缩算法。关键词:JPEG;JPEG2000;分形图像压缩;小波变换;任意形状可视对象编码一 引 言 随着多媒体技术和通讯技术的不断发展,多媒体娱乐、信息高速公路等不断对信息数据的存储和传输提出了更高的要求,也给现有的有限带宽以严峻的考验,特别是具有庞大数据量的数字图像通信,更难以传输和存储,极大地制约了图像通信的发展,因此图像压缩技术受到了越来越多的关注。图像压缩的目的就是把原来较大的图像用尽量少的字节表示和传输,并且要求复原图像有较好的质量。利用图像压缩,可以减轻图像存储和传输的负担,使图像在网络上实现快速传输和实时处理。 图像压缩编码技术可以追溯到1948年提出的电视信号数字化,到今天已经有50多年的历史了[1]。在此期间出现了很多种图像压缩编码方法,特别是到了80年代后期以后,由于小波变换理论,分形理论,人工神经网络理论,视觉仿真理论的建立,图像压缩技术得到了前所未有的发展,其中分形图像压缩和小波图像压缩是当前研究的热点。本文对当前最为广泛使用的图像压缩算法进行综述,讨论了它们的优缺点以及发展前景。二 JPEG压缩 负责开发静止图像压缩标准的“联合图片专家组”(Joint Photographic Expert Group,简称JPEG),于1989年1月形成了基于自适应DCT的JPEG技术规范的第一个草案,其后多次修改,至1991年形成ISO10918国际标准草案,并在一年后成为国际标准,简称JPEG标准。1.JPEG压缩原理及特点 JPEG算法中首先对图像进行分块处理,一般分成互不重叠的 大小的块,再对每一块进行二维离散余弦变换(DCT)。变换后的系数基本不相关,且系数矩阵的能量集中在低频区,根据量化表进行量化,量化的结果保留了低频部分的系数,去掉了高频部分的系数。量化后的系数按zigzag扫描重新组织,然后进行哈夫曼编码。JPEG的特点优点:(1)形成了国际标准;(2)具有中端和高端比特率上的良好图像质量。缺点:(1)由于对图像进行分块,在高压缩比时产生严重的方块效应;(2)系数进行量化,是有损压缩;(3)压缩比不高,小于50。 JPEG压缩图像出现方块效应的原因是:一般情况下图像信号是高度非平稳的,很难用Gauss过程来刻画,并且图像中的一些突变结构例如边缘信息远比图像平稳性重要,用余弦基作图像信号的非线性逼近其结果不是最优的。2. JPEG压缩的研究状况及其前景 针对JPEG在高压缩比情况下,产生方块效应,解压图像较差,近年来提出了不少改进方法,最有效的是下面的两种方法:(1)DCT零树编码 DCT零树编码把 DCT块中的系数组成log2N个子带,然后用零树编码方案进行编码。在相同压缩比的情况下,其PSNR的值比 EZW高。但在高压缩比的情况下,方块效应仍是DCT零树编码的致命弱点。(2)层式DCT零树编码 此算法对图像作 的DCT变换,将低频 块集中起来,做 反DCT变换;对新得到的图像做相同变换,如此下去,直到满足要求为止。然后对层式DCT变换及零树排列过的系数进行零树编码。 JPEG压缩的一个最大问题就是在高压缩比时产生严重的方块效应,因此在今后的研究中,应重点解决 DCT变换产生的方块效应,同时考虑与人眼视觉特性相结合进行压缩。三 JEPG2000压缩 JPEG2000是由ISO/IEC JTCISC29标准化小组负责制定的全新静止图像压缩标准。一个最大改进是它采用小波变换代替了余弦变换。2000年3月的东京会议,确定了彩色静态图像的新一代编码方式—JPEG2000图像压缩标准的编码算法。1.JPEG2000压缩原理及特点 JPEG2000编解码系统的编码器和解码器的框图如图1所示。编码过程主要分为以下几个过程:预处理、核心处理和位流组织。预处理部分包括对图像分片、直流电平(DC)位移和分量变换。核心处理部分由离散小波变换、量化和熵编码组成。位流组织部分则包括区域划分、码块、层和包的组织。 JPEG2000格式的图像压缩比,可在现在的JPEG基础上再提高10%~30%,而且压缩后的图像显得更加细腻平滑。对于目前的JPEG标准,在同一个压缩码流中不能同时提供有损和无损压缩,而在JPEG2000系统中,通过选择参数,能够对图像进行有损和无损压缩。现在网络上的JPEG图像下载时是按“块”传输的,而JPEG2000格式的图像支持渐进传输,这使用户不必接收整个图像的压缩码流。由于JPEG2000采用小波技术,可随机获取某些感兴趣的图像区域(ROI)的压缩码流,对压缩的图像数据进行传输、滤波等操作。2.JPEG2000压缩的前景 JPEG2000标准适用于各种图像的压缩编码。其应用领域将包括Internet、传真、打印、遥感、移动通信、医疗、数字图书馆和电子商务等。JPEG2000图像压缩标准将成为21世纪的主流静态图像压缩标准。四 小波变换图像压缩1.小波变换图像压缩原理小波变换用于图像编码的基本思想就是把图像根据Mallat塔式快速小波变换算法进行多分辨率分解。其具体过程为:首先对图像进行多级小波分解,然后对每层的小波系数进行量化,再对量化后的系数进行编码。小波图像压缩是当前图像压缩的热点之一,已经形成了基于小波变换的国际压缩标准,如MPEG-4标准,及如上所述的JPEG2000标准 。2.小波变换图像压缩的发展现状及前景 目前3个最高等级的小波图像编码分别是嵌入式小波零树图像编码(EZW),分层树中分配样本图像编码(SPIHT)和可扩展图像压缩编码(EBCOT)。(1)EZW编码器 1993年,Shapiro引入了小波“零树”的概念,通过定义POS、NEG、IZ和ZTR四种符号进行空间小波树递归编码,有效地剔除了对高频系数的编码,极大地提高了小波系数的编码效率。此算法采用渐进式量化和嵌入式编码模式,算法复杂度低。EZW算法打破了信息处理领域长期笃信的准则:高效的压缩编码器必须通过高复杂度的算法才能获得,因此EZW编码器在数据压缩史上具有里程碑意义。(2)SPIHT编码器 由Said和Pearlman提出的分层小波树集合分割算法(SPIHT)则利用空间树分层分割方法,有效地减小了比特面上编码符号集的规模。同EZW相比,SPIHT算法构造了两种不同类型的空间零树,更好地利用了小波系数的幅值衰减规律。同EZW编码器一样,SPIHT编码器的算法复杂度低,产生的也是嵌入式比特流,但编码器的性能较EZW有很大的提高。(3)EBCOT编码器优化截断点的嵌入块编码方法(EBCOT)首先将小波分解的每个子带分成一个个相对独立的码块,然后使用优化的分层截断算法对这些码块进行编码,产生压缩码流,结果图像的压缩码流不仅具有SNR可扩展而且具有分辨率可扩展,还可以支持图像的随机存储。比较而言,EBCOT算法的复杂度较EZW和SPIHT有所提高,其压缩性能比SPIHT略有提高。小波图像压缩被认为是当前最有发展前途的图像压缩算法之一。小波图像压缩的研究集中在对小波系数的编码问题上。在以后的工作中,应充分考虑人眼视觉特性,进一步提高压缩比,改善图像质量。并且考虑将小波变换与其他压缩方法相结合。例如与分形图像压缩相结合是当前的一个研究热点。五 分形图像压缩 1988年,Barnsley通过实验证明分形图像压缩可以得到比经典图像编码技术高几个数量级的压缩比。1990年,Barnsley的学生提出局部迭代函数系统理论后,使分形用于图像压缩在计算机上自动实现成为可能。1. 分形图像压缩的原理 分形压缩主要利用自相似的特点,通过迭代函数系统(Iterated Function System, IFS)实现。其理论基础是迭代函数系统定理和拼贴定理。 分形图像压缩把原始图像分割成若干个子图像,然后每一个子图像对应一个迭代函数,子图像以迭代函数存储,迭代函数越简单,压缩比也就越大。同样解码时只要调出每一个子图像对应的迭代函数反复迭代,就可以恢复出原来的子图像,从而得到原始图像。2.几种主要分形图像编码技术 随着分形图像压缩技术的发展,越来越多的算法被提出,基于分形的不同特征,可以分成以下几种主要的分形图像编码方法。(1)尺码编码方法 尺码编码方法是基于分形几何中利用小尺度度量不规则曲线长度的方法,类似于传统的亚取样和内插方法,其主要不同之处在于尺度编码方法中引入了分形的思想,尺度 随着图像各个组成部分复杂性的不同而改变。(2)迭代函数系统方法 迭代函数系统方法是目前研究最多、应用最广泛的一种分形压缩技术,它是一种人机交互的拼贴技术,它基于自然界图像中普遍存在的整体和局部自相关的特点,寻找这种自相关映射关系的表达式,即仿射变换,并通过存储比原图像数据量小的仿射系数,来达到压缩的目的。如果寻得的仿射变换简单而有效,那么迭代函数系统就可以达到极高的压缩比。(3)A-E-Jacquin的分形方案 A-E-Jacquin的分形方案是一种全自动的基于块的分形图像压缩方案,它也是一个寻找映射关系的过程,但寻找的对象域是将图像分割成块之后的局部与局部的关系。在此方案中还有一部分冗余度可以去除,而且其解码图像中存在着明显的方块效应。3.分形图像压缩的前景 虽然分形图像压缩在图像压缩领域还不占主导地位,但是分形图像压缩既考虑局部与局部,又考虑局部与整体的相关性,适合于自相似或自仿射的图像压缩,而自然界中存在大量的自相似或自仿射的几何形状,因此它的适用范围很广。六 其它压缩算法 除了以上几种常用的图像压缩方法以外,还有:NNT(数论变换)压缩、基于神经网络的压缩方法、Hibert扫描图像压缩方法、自适应多相子带压缩方法等,在此不作赘述。下面简单介绍近年来任意形状纹理编码的几种算法[10]~ [13]。(1)形状自适应DCT(SA-DCT)算法 SA-DCT把一个任意形状可视对象分成 的图像块,对每块进行DCT变换,它实现了一个类似于形状自适应Gilge DCT[10][11]变换的有效变换,但它比Gilge DCT变换的复杂度要低。可是,SA-DCT也有缺点,它把像素推到与矩形边框的一个侧边相平齐,因此一些空域相关性可能丢失,这样再进行列DCT变换,就有较大的失真了[11][14][15]。(2)Egger方法 Egger等人[16][17]提出了一个应用于任意形状对象的小波变换方案。在此方案中,首先将可视对象的行像素推到与边界框的右边界相平齐的位置,然后对每行的有用像素进行小波变换,接下来再进行另一方向的小波变换。此方案,充分利用了小波变换的局域特性。然而这一方案也有它的问题,例如可能引起重要的高频部分同边界部分合并,不能保证分布系数彼此之间有正确的相同相位,以及可能引起第二个方向小波分解的不连续等。(3)形状自适应离散小波变换(SA-DWT) Li等人提出了一种新颖的任意形状对象编码,SA-DWT编码[18]~[22]。这项技术包括SA-DWT和零树熵编码的扩展(ZTE),以及嵌入式小波编码(EZW)。SA-DWT的特点是:经过SA-DWT之后的系数个数,同原任意形状可视对象的像素个数相同;小波变换的空域相关性、区域属性以及子带之间的自相似性,在SA-DWT中都能很好表现出来;对于矩形区域,SA-DWT与传统的小波变换一样。SA-DWT编码技术的实现已经被新的多媒体编码标准MPEG-4的对于任意形状静态纹理的编码所采用。 在今后的工作中,可以充分地利用人类视觉系统对图像边缘部分较敏感的特性,尝试将图像中感兴趣的对象分割出来,对其边缘部分、内部纹理部分和对象之外的背景部分按不同的压缩比进行压缩,这样可以使压缩图像达到更大的压缩比,更加便于传输。七 总结 图像压缩技术研究了几十年,取得了很大的成绩,但还有许多不足,值得我们进一步研究。小波图像压缩和分形图像压缩是当前研究的热点,但二者也有各自的缺点,在今后工作中,应与人眼视觉特性相结合。总之,图像压缩是一个非常有发展前途的研究领域,这一领域的突破对于我们的信息生活和通信事业的发展具有深远的影响。参考文献:[1] 田青. 图像压缩技术[J]. 警察技术, 2002, (1):30-31.[2] 张海燕, 王东木等. 图像压缩技术[J]. 系统仿真学报, 2002, 14(7):831-835.[3] 张宗平, 刘贵忠. 基于小波的视频图像压缩研究进展[J]. 电子学报, 2002, 30(6):883-889.[4] 周宁, 汤晓军, 徐维朴. JPEG2000图像压缩标准及其关键算法[J]. 现代电子技术, 2002, (12):1-5.[5] 吴永辉, 俞建新. JPEG2000图像压缩算法概述及网络应用前景[J]. 计算机工程, 2003, 29(3):7-10.[6] J M Shaprio. Embedded image coding using zerotree of wavelet coefficients[J]. IEEE Trans. on Signal Processing, 1993, 41(12): 3445-3462.[7] A Said, W A Pearlman. A new fast and efficient image codec based on set partitioning in hierarchical trees[J]. IEEE Trans. on Circuits and Systems for Video Tech. 1996, 6(3): 243-250.[8] D Taubman. High performance scalable image compression with EBCOT[J]. IEEE Transactions on Image Processing, 2000, 9(7): 1158–1170.[9] 徐林静, 孟利民, 朱建军. 小波与分行在图像压缩中的比较及应用. 中国有线电视, 2003, 03/04:26-29.[10] M Gilge, T Engelhardt, R Mehlan. Coding of arbitrarily shaped image segments based on a generalized orthogonal transform[J]. Signal Processing: Image Commun., 1989, 1(10): 153–180.[11] T Sikora, B Makai. Shape-adaptive DCT for generic coding of video[J]. IEEE Trans. Circuits Syst. Video Technol., 1995, 5(1): 59–62.[12] T Sikora, S Bauer, B Makai. Efficiency of shape-adaptive 2-D transforms for coding of arbitrarily shaped image segments[J]. IEEE Trans. Circuits Syst. Video Technol., 1995, 5(3): 254–258.[13]邓家先 康耀红 编著 《信息论与编码》

huffman算法是基于词频统计的,所以适用于有大量重复单词的情况,也就是文本这种对于图片来说,每个像素的颜色都不一样,整个图片上完全相同的像素点很少,不适合统计用所以像图形图像这种一般来说不适合用词频统计的方式压缩

下面是我从网上搜索到的资料,希望对你有帮助。1.哈夫曼图像压缩算法引言随着网络与多媒体技术的兴起,人们需要存储和传输的数据越来越多,数据量越来越大,以前带宽有限的传输网络和容量有限的存储介质难以满足用户的需求。特别是声音、图像和视频等媒体在人们的日常生活和工作中的地位日益突出,这个问题越发显得严重和迫切。如今,数据压缩技术早已是多媒体领域中的关键技术之一。Huffman(哈夫曼)算法在上世纪五十年代初提出来了,它是一种无损压缩方法,在压缩过程中不会丢失信息熵,而且可以证明Huffman算法在无损压缩算法中是最优的。Huffman原理简单,实现起来也不困难,在现在的主流压缩软件得到了广泛的应用。对应用程序、重要资料等绝对不允许信息丢失的压缩场合,Huffman算法是非常好的选择。2.哈夫曼图像压缩算法原理Huffman编码是1952年由Huffman提出的对统计独立信源能达到最小平均码长的编码方法。这一年,他发表了著名论文“A Method for the Construction of Minimum Redundancy Codes”,即最短冗余码的构造方法.之后,Huffman编码及其一些改进方法一直是数据压缩领域的研究热点之一。Huffman码是一种变长码,其基本思想是:先统计图像(已经数字化)中各灰度出现的概率,出现概率较大的赋以较短的码字,而出现概率较小的则赋以较长的码字。我们可以用下面的框图来表示Huffman编码的过程:在整个编码过程中,统计图像各灰度级出现的概率和编码这两步都很简单,关键的是Huffman树的构造。不但编码的时候需要用到这颗树,解码的时候也必须有这颗树才能完成解码工作,因此,Huffman树还得完整的传输到解码端。Huffman树的构造可以按照下面图2的流程图来完成。首先对统计出来的概率从小到大进行排序,然后将最小的两个概率相加;到这儿的时候,先把已经加过的两个概率作为树的两个节点,并把他们从概率队列中删除;然后把相加所得的新概率加入到队列中,对这个新队列进行排序。如此反复,直到最后两个概率相加为1的时候停止。这样,Huffman树就建立起来了。3. 哈夫曼图像压缩算法软件实现这儿,我们以Turbo C为例来说明软件实现Huffman图像压缩算法的一些关键技术。为了叙述方便,我们不妨假设处理的图像的灰度级变化范围从0到255,即具有256个灰度级。我们先来统计输入图像的概率,实际上是要统计各个灰度级在整幅图像中出现的次数。为此,我们先定义一个具有256个元素的数组。然后对输入图像信号进行扫描,每出现一个灰度,就把它存入实现定义好的一个数组中的相应元素中(让这个元素的值自增1)。最后,通过读取数组中各元素的值就可以求出各个灰度出现的频数。接下来就该构造Huffman树了。为了构造Huffman树,我们要用到C语言中链表的概念。我们必须用一个结构体来表示Huffman树的节点。对于每个节点而言我们需要这样几个信息:本节点的权重(就是灰度的频数)、指向父节点的指针和分别指向左右子叶节点的指针。于是,我们可以定义这样一个结构体:Struct Node{Floatweight;Node * father;Node * left;Node * right;}Huffman_Node我们需要先确定权最低的两个自由结点,这将是最初的left和right节点。然后建立这两个结点的父结点,并让它的权等于这两个结点的权之和。接着将这个父结点增加到自由结点的序列中,而两个子结点则从序列中去掉。重复前面的步骤直到只剩下一个自由结点,这个自由结点就是Huffman树的根。Huffman编码树作为一个二叉树从叶结点逐步向上建立。Huffman树建立好以后,为了把权、概率等数值转化码字,我们还得对整个Huffman树进行扫描。请注意,在建立Huffman树的时候,我们是从树叶开始的,而在对Huffman树分配码字的时候却刚好相反,是从树根开始,沿着各个树枝的走向“顺藤摸瓜”似的对各个系数进行编码。对于一个节点的两个子节点(left和right),其中一个节点对应的位为0,而另一个结点则人为地设置成为l。解码的时候也是完全相同的一颗Huffman树完成的。下面的循环是实现压缩的关键语句之一[ 1 ]。for (i = length-1; i >= 0; ――i) {if ((current_code >> i) & 1)thebyte |= (char) (1 << curbit);if (--curbit < 0) {putc (thebyte, ofile);thebyte = 0;curbyte++;curbit = 7;}}注意:这几行代码执行了数据压缩的功能,但是还没有生成编码和解码所需要的代码表。4.哈夫曼图像压缩算法性能评价我们主要从三方面[ 2 ]来评价Huffman的性能:(1)压缩比的大小;(2)恢复效果的好坏,也就是能否尽可能的恢复原始数据;(3)算法的简单易用性以及编、解码的速度。首先分析一下对压缩比的影响因素(不同的著作中对压缩比的定义不尽相同,这儿我们采用如下定义:压缩比等于压缩之前的以比特计算的数据量比上压缩之后的数据量)。对于Huffman编码来说,我们因为要用额外的位保存和传输Huffman树而“浪费”掉一些存储位,也就是说,为了编、解码的方便,我们把本已减少的数据量又增加了一些。如果文件比较大的话,这一点多余的数据根本算不了什么,所占比例很小。但是,如果压缩的文件本来就很小的话,那么这笔数据就很可观了。一般来说,经典的Huffman算法的压缩比不是很高,这是无损压缩的“通病”。第二点就不用说了,由于它是无损压缩,能够完全恢复压缩之前图像的本来面貌。最后,让我们来分析一下Huffman压缩方法的速度问题。大家在第三节中已经看到了,在压缩的过程中,我们进行了两次扫描,第一次是为了统计各个灰度出现的频数而扫描整幅图像,第二次则是为了分配码字而扫描整个Huffman树。这样一来,对较大的文件进行编码时,频繁的磁盘读写访问必然会降低数据编码的速度,如果用于网络的话,还会因此带来一些延时,不利于实时压缩和传输。另外,Huffman算法的编码和解码的速度是不对称的,解码快于编码,因为解码不需要生成Huffman树的环节。5.图像压缩算法结束语Huffman算法目前已经得到了广泛的应用,软件和硬件都已经实现。基于Huffman经典算法的缺陷,不少人提出了一些自适应算法。前面的算法中,Huffman树是整个图像全部输入扫描完成后构造出来的,而自适应算法(或称动态算法)则不必等到全部图像输入完成才开始树的构造,并且可以根据后面输入的数据动态的对Huffman树进行调整。实际上,实用的Huffman树都是经过某种优化后的动态算法。网络资源

图像分割算法研究论文

图像处理的很多任务都离不开图像分割。因为图像分割在cv中实在太重要(有用)了,就先把图像分割的常用算法做个总结。         接触机器学习和深度学习时间已经不短了。期间看过各种相关知识但从未总结过。本文过后我会尽可能详细的从工程角度来总结,从传统机器学习算法,传统计算机视觉库算法到深度学习目前常用算法和论文,以及模型在各平台的转化,量化,服务化部署等相关知识总结。         图像分割常用算法大致分为下面几类。由于图像的能量范函,边缘追踪等方法的效果往往只能解决特定问题,效果并不理想,这里不再阐述。当然二值化本身也可以分割一些简单图像的。但是二值化算法较多,我会专门做一个文章来总结。这里不再赘述。         1.基于边缘的图像分割算法:             有利用图像梯度的传统算法算子的sobel,roberts,prewitt,拉普拉斯以及canny等。             这些算法的基本思想都是采用合适的卷积算子,对图像做卷积。从而求出图像对应的梯度图像。(至于为什么通过如图1这样的算子卷积,即可得到图像的梯度图像,请读者复习下卷积和倒数的概念自行推导)由于图像的边缘处往往是图像像素差异较大,梯度较大地方。因此我们通过合适的卷积核得到图像的梯度图像,即得到了图像的边缘图像。至于二阶算子的推导,与一阶类似。优点:传统算子梯度检测,只需要用合适的卷积核做卷积,即可快速得出对应的边缘图像。缺点:图像边缘不一定准确,复杂图像的梯度不仅仅出现在图像边缘,可以能出现在图像内部的色彩和纹理上。              也有基于深度学习方法hed,rcf等。由于这类网络都有同一个比较严重的缺陷,这里只举例hed网络。hed是基于FCN和VGG改进,同时引出6个loss进行优化训练,通过多个层输出不同scale的粒度的边缘,然后通过一个训练权重融合各个层的边缘结果。hed网络结构如下: 可以得到一个比较完整的梯度图像,可参考github的hed实现。优点:图像的梯度细节和边缘完整性,相比传统的边缘算子要好很多。但是hed对于边缘的图像内部的边缘并不能很好的区分。当然我们可以自行更改loss来尝试只拟合外部的图像边缘。但最致命的问题在于,基于vgg的hed的网络表达能力有限,对于图像和背景接近,或者图像和背景部分相融的图片,hed似乎就有点无能为力了。         2.基于区域分割的算法:             区域分割比较常用的如传统的算法结合遗传算法,区域生长算法,区域分裂合并,分水岭算法等。这里传统算法的思路是比较简单易懂的,如果有无法理解的地方,欢迎大家一起讨论学习。这里不再做过多的分析。             基于区域和语意的深度学习分割算法,是目前图像分割成果较多和研究的主要方向。例如FCN系列的全卷积网络,以及经典的医学图像分割常用的unet系列,以及rcnn系列发展下的maskrcnn,以及18年底的PAnet。基于语意的图像分割技术,无疑会成为图像分割技术的主流。             其中,基于深度学习语意的其他相关算法也可以间接或直接的应用到图像分割。如经典的图像matting问题。18年又出现了许多非常优秀的算法和论文。如Deep-Image-Matting,以及效果非常优秀的MIT的 semantic soft segmentation(sss).             基于语意的图像分割效果明显要好于其他的传统算法。我在解决图像分割的问题时,首先尝试用了hed网络。最后的效果并不理想。虽然也参考github,做了hed的一些fine-tune,但是还是上面提到的原因,在我多次尝试后,最终放弃。转而适用FCN系列的网络。但是fcn也无法解决图像和背景相融的问题。图片相融的分割,感觉即需要大的感受野,又需要未相融部分原图像细节,所以单原FCN的网络,很难做出准确的分割。中间还测试过很多其他相关的网络,但都效果不佳。考虑到感受野和原图像细节,尝试了resnet和densenet作为图像特征提取的底层。最终我测试了unet系列的网络:                 unet的原始模型如图所示。在自己拍照爬虫等手段采集了将近1000张图片。去掉了图片质量太差的,图片内容太过类似的。爬虫最终收集160多张,自己拍照收集200张图片后,又用ps手动p了边缘图像,采用图像增强变换,大约有300*24张图片。原生unet网络的表现比较一般。在将unet普通的卷积层改为resnet后,网络的表达能力明显提升。在将resnet改为resnet101,此时,即使对于部分相融的图像,也能较好的分割了。但是unet的模型体积已经不能接受。                 在最后阶段,看到maskrcnn的实例分割。maskrcnn一路由rcnn,fasterrcnn发展过来。于是用maskrcnn来加入自己的训练数据和label图像进行训练。maskrcnn的结果表现并不令人满意,对于边缘的定位,相比于其他算法,略显粗糙。在产品应用中,明显还不合适。                         3.基于图的分割算法             基于深度学习的deepgrab,效果表现并不是十分理想。deepgrab的git作者backbone采用了deeplabv2的网络结构。并没有完全安装原论文来做。 论文原地址参考: 整体结构类似于encode和decoder。并没有太仔细的研究,因为基于resent101的结构,在模型体积,速度以及deeplab的分割精度上,都不能满足当前的需求。之前大致总结过计算机视觉的相关知识点,既然目前在讨论移动端模型,那后面就分模块总结下移动端模型的应用落地吧。 由于时间实在有限。这里并没有针对每个算法进行详细的讲解。后续我会从基础的机器学习算法开始总结。

图像分割是图像处理与计算机视觉的基本问题之一,是图像处理图像分析的关键步骤。我整理了图像分割技术论文,欢迎阅读!

图像分割技术研究

摘要:图像分割是图像处理与计算机视觉的基本问题之一,是图像处理图像分析的关键步骤。本文介绍了基于阈值的分割方法和图像分割的图像分割性能的评价、应用现状;最后总结出图像分割的发展趋势。

关键词:图像分割、阈值、边缘检测、区域分割

中图分类号: 文献标识码: A

1引言

随着图像分割技术研究的深入,其应用日趋广泛。凡属需要对图像目标进行提取、测量的工作都离不开图像分割。图像分割是图像处理、模式识别和人工智能等多个领域中一个十分重要且又十分困难的问题,是计算机视觉技术中首要的、重要的关键步骤。图像分割结果的好坏直接影响对计算机视觉中的图像理解。现有的方法多是为特定应用设计的,有很大的针对性和局限性,到目前为止还不存在一个通用的方法,也不存在一个判断分割是否成功的客观标准。因此,对图像分割的研究目前还缺乏一个统一的理论体系,使得图像分割的研究仍然是一个极富有挑战性的课题。

2图像分割方法

图像分割(Image Segmentation),简单地说就是将一幅数字图像分割成不同的区域,在同一区域内具有在一定的准则下可认为是相同的性质,如灰度、颜色、纹理等。而任何相邻区域之间其性质具有明显的区别。

基于灰度特征的阈值分割方法

阈值分割技术是经典的、流行的图象分割方法之一,它是用一个或几个阈值将图像的灰度级分为几个部分,认为属于同一个部分的像素是同一个物体。

这类方法主要包括以下几种:

(1)单阈值法,用一个全局阈值区分背景和目标。当一幅图像的直方图具有明显的双峰时,选择两峰之间的谷底作为阈值。

(2)双阈值法,用两个阈值区分背景和目标。通过设置两个阈值,以防单阈值设置阈值过高或过低,把目标像素误归为背景像素,或把背景像素误归为目标像素。

(3)多阈值法,当存在照明不均,突发噪声等因素或背景灰度变化较大时,整幅图像不存在合适的单一阈值,单一阈值不能兼顾图像不同区域的具体情况,这时可将图像分块处理,对每一块设一个阈值。

边缘检测分割法

基于边缘检测技术可以按照处理的顺序分为并行边缘检测和串行边缘检测两大类。常见的边缘检测方法有:差分法、模板匹配法及统计方法等。由于边缘灰度变化规律一般体现为阶梯状或者脉冲状。边缘与差分值的关系可以归纳为两种情况,其一是边缘发生在差分最大值或者最小值处;其二是边缘发生在过零处。

基于区域的分割方法

基于区域的分割方法利用的是图像的空间性质。该方法认为分割出来的某一区域具有相似的性质。常用的方法有区域生长法和区域分裂合并法。该类方法对含有复杂场景或自然景物等先验知识不足的图像进行分割,效果较好。

区域生长方法是把一幅图像分成许多小区域开始的,这些初始的小区域可能是小的邻域甚至是单个像素,在每个区域中,通过计算能反映一个物体内像素一致性的特征,作为区域合并的判断标准。区域合并的第一步是赋给每个区域一组参数,即特征。接下来对相邻区域的所有边界进行考查,如果给定边界两侧的特征值差异明显,那么这个边界很强,反之则弱。强边界允许继续存在,而弱边界被消除,相邻区域被合并。没有可以消除的弱边界时,区域合并过程结束,图像分割也就完成。

结合特定工具的图像分割技术

20世纪80年代末以来,随着一些特殊理论的出现及其成熟,如数学形态学、分形理论、模糊数学、小波分析、模式识别、遗传算法等,大量学者致力于将新的概念、新的方法用于图像分割,有效地改善了分割效果。产生了不少新的分割算法。下面对这些算法做一些简单的概括。

基于数学形态学的分割算法

分水岭算法是一种经典的借鉴了数学形态理论的分割方法。该方法中,将一幅图像比为一个具有不同高度值的地形,高灰度值处被认为是山脊,底灰度值处被认为是山谷,将一滴水从任一点流下,它会朝地势底的地方流动,最终聚于某一局部最底点,最后所有的水滴会分聚在不同的吸引盆地,由此,相应的图像就被分割成若干部分。分水岭算法具有运算简单、性能优良,能够较好提取运动对象轮廓、准确得到运动物体边缘的优点。但分割时需要梯度信息,对噪声较敏感。

基于模糊数学的分割算法

目前,模糊技术在图像分割中应用的一个显著特点就是它能和现有的许多图像分割方法相结合,形成一系列的集成模糊分割技术,例如模糊聚类、模糊阈值、模糊边缘检测技术等。

这类方法主要有广义模糊算子与模糊阈值法两种分割算法。

(1)广义模糊算子在广义模糊集合的范围内对图像处理,使真正的边缘处于较低灰度级,但还有一些不是边缘的像素点的灰度也在较低灰度级中,虽然算法的计算简明,且边缘细腻,但得到的边缘图会出现断线问题。

(2)模糊阈值法引入灰度图像的模糊数学描述,通过计算图像的模糊熵来选取图像的分割阈值,后用阈值法处理图像得到边界。

基于遗传算法的分割方法

此算法是受生物进化论思想提出的一种优化问题的解决方法,它使用参数编码集而不是参数本身,通过模拟进化,以适者生存的策略搜索函数的解空间,它是在点群中而不是在单点进行寻优。遗传算法在求解过程中使用随机转换规则而不是确定性规则来工作,它唯一需要的信息是适应值,通过对群体进行简单的复制、杂交、变异作用完成搜索过程。由于此法能进行能量函数全局最小优化搜索,且可以降低搜索空间维数,降低算法对模板初始位置的敏感,计算时间也大为减少。其缺点是容易收敛于局部最优。

基于神经网络分割算法

人工神经网络具有自组织、自学习、自适应的性能和非常强的非线性映射能力,适合解决背景知识不清楚、推理规则不明确和比较复杂的分类问题,因而也适合解决比较复杂的图像分割问题。原则上讲,大部分分割方法都可用 ANN(attificial neural network)实现。ANN 用于分割的研究起步较晚,只有多层前馈NN,多层误差反传(BP)NN,自组织NN,Hopfield NN以及满足约束的NN(CSNN-Const raint Satisfaction Neurat Network)等得到了应用。使用一个多层前向神经网络用于图象分割,输入层神经元的数目取决于输入特征数,而输出层神经元的数目等同于分类的数目。

图像分割中的其他方法

前面介绍了4大类图像分割较常用的方法,有关图像分割方法和文献很多,新方法不断产生,这些方法有的只对特定的情形有效,有的综合了几种方法,放在一起统称为第5类。

(1)标号法(labeling)是一种基于统计学的方法,这种方法将图像欲分割成的几个区域各以一个不同的标号来表示,用一定的方式对图像中的每一个像素赋以标号,标号相同的像素就合并成该标号所代表的区域。

(2)基于Snak模型的分割方法,基于Snake模型的分割是通过对能量函数的动态优化来逼近图像目标的真实轮廓的

(3)纹理分割,由于新的数学工具的引入,纹理分割技术取得了一些进展,张蓬等人将小波分析应用于纹理基元提取。

(4)基于知识的图像分割方法,直接建立在先验知识的基础上,使分割更符合实际图像的特点。该方法的难度在于知识的正确合理的表示与利用。

3图像分割性能的评价

图像分割评价主要有两个方面的内容:一是研究各分割算法在不同情况下的表现,掌握如何选择和控制其参数设置,以适应不同需要。二是分析多个分割算法在分割同一图像时的性能,比较优劣,以便在实际应用中选取合适的算法。分割评价方法分为分析法和实验法两大类。分析法是直接分析分割算法本身的原理及性能,而实验法是通过对测试图像的分割结果来评价算法的。两种方法各有优劣,由于缺乏可靠理论依据,并非所有分割算法都能够通过分析法分析其性能。每种评价方法都是出于某种考虑而提出来的,不同的评价方法只能反映分割算法性能的某一性能。另一方面,每一种分割算法的性能是由多种因素决定的,因此,有可能需要多种准则来综合评价。

4图像分割技术的发展趋势

随着神经网络、遗传算法、统计学理论、小波理论以及分形理论等在图像分割中的广泛应用,图像分割技术呈现出以下的发展趋势:(1)多种特征的融合。(2)多种分割方法的结合。(3)新理论与新方法。

参考文献

[1] [美]RC冈萨雷斯.数字图像处理(第二版)[M].阮秋琦,等译.北京:电子工业出版社,2003

[2] 章毓晋.图像分割[M].北京:科学出版社,2001.

[3] 李弼程,彭天强,彭波等.智能图像处理技术[M].北京:电子工业出版社,2004.

[4] 杨晖,曲秀杰.图像分割方法综述[J].电脑开发与应用。2005,18(3):21-23.

点击下页还有更多>>>图像分割技术论文

随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。我整理了图像识别技术论文,欢迎阅读!

图像识别技术研究综述

摘要:随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。图像识别是利用计算机对图像进行处理、分析和理解,由于图像在成像时受到外部环境的影响,使得图像具有特殊性,复杂性。基于图像处理技术进一步探讨图像识别技术及其应用前景。

关键词:图像处理;图像识别;成像

中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)10-2446-02

图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。

1 图像处理技术

图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。

1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。

2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。

3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。

4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。

5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。

2 图像识别技术

图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:

指纹识别

指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。

人脸识别 目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。

文字识别

文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。

3 结束语

人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。

参考文献:

[1] 胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.

[2] 胡学龙.数字图像处理[M].北京:电子工业出版社,2011.

[3] 范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.

[4] 晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.

[5] 陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.

[6] Sanderson C,Paliwal K Fusion and Person Verification Using Speech & Face Information[C].IDIAP-RR 02-33,Martigny,Swizerland,2002.

点击下页还有更多>>>图像识别技术论文

  • 索引序列
  • 数字图像去雾算法研究毕业论文
  • 图像去噪去噪算法研究论文
  • 数字图像处理图像复原研究论文
  • 图像压缩算法研究论文
  • 图像分割算法研究论文
  • 返回顶部