留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于对焦清晰度的双分辨相机变焦算法研究

金哲彦 徐之海 冯华君 李奇

金哲彦, 徐之海, 冯华君, 李奇. 基于对焦清晰度的双分辨相机变焦算法研究[J]. 红外与激光工程, 2020, 49(5): 20190463. doi: 10.3788/IRLA20190463
引用本文: 金哲彦, 徐之海, 冯华君, 李奇. 基于对焦清晰度的双分辨相机变焦算法研究[J]. 红外与激光工程, 2020, 49(5): 20190463. doi: 10.3788/IRLA20190463
Jin Zheyan, Xu Zhihai, Feng Huajun, Li Qi. Research on zoom algorithm based on dual resolution camera[J]. Infrared and Laser Engineering, 2020, 49(5): 20190463. doi: 10.3788/IRLA20190463
Citation: Jin Zheyan, Xu Zhihai, Feng Huajun, Li Qi. Research on zoom algorithm based on dual resolution camera[J]. Infrared and Laser Engineering, 2020, 49(5): 20190463. doi: 10.3788/IRLA20190463

基于对焦清晰度的双分辨相机变焦算法研究

doi: 10.3788/IRLA20190463
基金项目: 十三五民用航天预先研究项目(D040301)
详细信息
    作者简介:

    金哲彦(1996-),男,博士生,主要从事成像与图像处理方面的研究。Email:11930051@zju.edu.cn

    李奇(1973-),男,副教授,博士,主要从事成像与图像处理方面的研究。Email:liqi@zju.edu.cn

  • 中图分类号: TP751

Research on zoom algorithm based on dual resolution camera

  • 摘要: 双分辨率相机同时兼顾大视场和高分辨,利用同轴光学固定结构避免了变焦镜头运动部件带来的诸多问题,在深空探测目标跟踪和手机等智能终端上具有应用价值。针对现有的基于深度学习的双分辨率图像变焦算法的速度慢,信息量没有提升,图像网络结构适配性差和图像信息修复的伪造性等问题尝试性地提出了加入基于深度信息的解决办法。论证将图像对焦清晰度作为深度信息引入双分辨变焦算法的可行性,探讨对焦深度信息检测精度与效果,分别测试深度学习和基于深度信息的传统方法的双分辨率变焦算法,得到了一种不影响正常成像速度,内存开销降低35%和算法复杂度降低60%,超分辨信息真实可靠,图像结果评价提升10%到50%的全新算法。
  • 图  1  对焦过程中的视场变化

    Figure  1.  Field of view change during focusing

    图  2  基于对焦实拍图像的深度信息提取

    Figure  2.  Depth information extraction based on focus real shot image

    图  3  对焦位置不同对深度提取的影响

    Figure  3.  Different focus positions impact depth information extraction

    图  4  主算法流程图

    Figure  4.  Main algorithm flow chart

    图  5  不同尺寸的深度图像小块比较

    Figure  5.  Comparison of different size depth image patches

    图  6  实拍图像基于对焦清晰度的大尺寸块匹配迁移结果

    Figure  6.  Real shot image focus based large size block matching migration results

    表  1  不同尺寸深度矩阵的运算时间(单位:s)

    Table  1.   Calculation time of different size depth matrix (Unit:s)

    Size depth matrix size4 000×3 000 (original image)
    20×2050×50100×100200×200500×500
    Computing time6.6116.1154.60188.841 114.69
    下载: 导出CSV

    表  2  不同算法的图像处理结果对比

    Table  2.   Comparison of image processing results of different algorithms

    Image evaluation functionImage processing algorithms 500×500
    Label(f)Paste(a)SRCNN(e)In the paper(b)In the paper(c)In the paper(d)
    PSNR25.8527.4024.4724.2124.19
    SSIM0.86650.736 40.817 30.812 60.811 0
    MSE169.08118.28232.31246.41247.65
    Laplace379.16263.50289.49278.16278.44278.12
    下载: 导出CSV

    表  3  不同算法的图像计算时间与内存开销

    Table  3.   Image calculation time and memory overhead of different algorithms

    ImageRelative calculation timePeak memory overhead/GB
    BI SRCNN ours ours+ BI SRNN ours ours+
    4 000×3 000×1233141.013.28.3
    500×500×31166111.011.77.97.9
    Note: “ours+” is the algorithm of this paper using multiple depth matrix, such as the paper(c) and paper(d) in Tab.2。
    下载: 导出CSV
  • [1] He Guiran, Li Qi, Feng Huajun, et al. Continuous digital zoom of bifocal camera based on CNN feature extraction [J]. Journal of Zhejiang University (Engineering Edition), 2019, 53(6): 1182−1189. (in Chinese)
    [2] Ma Yuyu, Xu Zhihai, Feng Huajun, et al. Digital zoom algorithm for bifocal images based on high-frequency information reconstruction[D]. Hangzhou: Zhejiang University, 2018. (in Chinese)
    [3] Chao Dong, Chen Change Loy, Kaiming He, et al. Learning a deep convolutional network for image super-resolution[C]//European Conference on Computer Vision (ECCV), 2014: 184-199.
    [4] Zheng Haitian, Ji Mengqi, Wang Haoqian, et al. CrossNet: An end-to-end reference-based super resolution network using cross-scale warping[C]//European Conference on Computer Vision (ECCV), 2018.
    [5] Zhang Zhifei, Wang Zhaowen, Lin Zhe, et al, Image super-resolution by neural texture transfer[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2019.
    [6] Lei Dengfeng, Zheng Qunhui. An accurate camera depth of field calculation method [J]. Information Technology, 2013(8): 133−135. (in Chinese)
    [7] Xu Yan, Wang Penghui, Liu Wei, et al. Comparative study of SIFT and SURF algorithms based on Matlab in image registration of drones [J]. Mine Survey, 2017, 45(6): 36−39. (in Chinese)
    [8] Yin Lihua, Li Fanming, Liu Shijian. Panoramic image stabilization algorithm based on region segmentation and fusion [J]. Infrared and Laser Engineering, 2018, 47(9): 0926004. (in Chinese)
    [9] Li Qi, Feng Huajun, Xu Zhihai, et al. Research on digital image sharpness evaluation function [J]. Journal of Photonics, 2002, 31(6): 736−738. (in Chinese)
  • [1] 李霖, 王红梅, 李辰凯.  红外与可见光图像深度学习融合方法综述 . 红外与激光工程, 2022, 51(12): 20220125-1-20220125-20. doi: 10.3788/IRLA20220125
    [2] 闵莉, 曹思健, 赵怀慈, 刘鹏飞.  改进生成对抗网络实现红外与可见光图像融合 . 红外与激光工程, 2022, 51(4): 20210291-1-20210291-10. doi: 10.3788/IRLA20210291
    [3] 宦克为, 李向阳, 曹宇彤, 陈笑.  卷积神经网络结合NSST的红外与可见光图像融合 . 红外与激光工程, 2022, 51(3): 20210139-1-20210139-8. doi: 10.3788/IRLA20210139
    [4] 高红霞, 魏涛.  改进PCNN与平均能量对比度的图像融合算法 . 红外与激光工程, 2022, 51(4): 20210996-1-20210996-8. doi: 10.3788/IRLA20210996
    [5] 谭威, 宋闯, 赵佳佳, 梁欣凯.  基于多层级图像分解的图像融合算法 . 红外与激光工程, 2022, 51(8): 20210681-1-20210681-9. doi: 10.3788/IRLA20210681
    [6] 张驯, 赵金雄, 白万荣, 赵红.  基于边界约束图像融合的光学字符识别算法研究 . 红外与激光工程, 2022, 51(12): 20220102-1-20220102-6. doi: 10.3788/IRLA20220102
    [7] 沈英, 黄春红, 黄峰, 李杰, 朱梦娇, 王舒.  红外与可见光图像融合技术的研究进展 . 红外与激光工程, 2021, 50(9): 20200467-1-20200467-18. doi: 10.3788/IRLA20200467
    [8] 周恩源, 曹月芹, 施建萍, 常波, 张金辉, 卢稳厚, 张璋, 邢美华, 卢国俊.  紧凑型双视场可见光镜头设计 . 红外与激光工程, 2021, 50(8): 20210042-1-20210042-8. doi: 10.3788/IRLA20210042
    [9] 曾瀚林, 孟祥勇, 钱惟贤.  高斯差分滤波图像融合方法 . 红外与激光工程, 2020, 49(S1): 20200091-20200091. doi: 10.3788/IRLA20200091
    [10] 戴进墩, 刘亚东, 毛先胤, 盛戈皞, 江秀臣.  基于FDST和双通道PCNN的红外与可见光图像融合 . 红外与激光工程, 2019, 48(2): 204001-0204001(8). doi: 10.3788/IRLA201948.0204001
    [11] 张家民, 时东锋, 黄见, 王英俭.  图像融合在偏振关联成像中的应用 . 红外与激光工程, 2018, 47(12): 1226002-1226002(7). doi: 10.3788/IRLA201847.1226002
    [12] 郭全民, 董亮, 李代娣.  红外与可见光图像融合的汽车抗晕光系统 . 红外与激光工程, 2017, 46(8): 818005-0818005(6). doi: 10.3788/IRLA201746.0818005
    [13] 曾祥通, 张玉珍, 孙佳嵩, 喻士领.  颜色对比度增强的红外与可见光图像融合方法 . 红外与激光工程, 2015, 44(4): 1198-1202.
    [14] 王金玲, 贺小军, 宋克非.  采用区域互信息的多光谱与全色图像融合算法 . 红外与激光工程, 2014, 43(8): 2757-2764.
    [15] 杨桄, 童涛, 孟强强, 孙嘉成.  基于梯度加权的红外与可见光图像融合方法 . 红外与激光工程, 2014, 43(8): 2772-2779.
    [16] 张宝辉, 闵超波, 窦亮, 张俊举, 常本康.  目标增强的红外与微光图像融合算法 . 红外与激光工程, 2014, 43(7): 2349-2353.
    [17] 杨风暴, 蔺素珍.  基于变换域多合成规则的双色中波红外图像融合 . 红外与激光工程, 2014, 43(11): 3663-3669.
    [18] 毛海岑, 刘爱东.  利用证据理论的图像融合方法 . 红外与激光工程, 2013, 42(6): 1642-1646.
    [19] 张勇, 金伟其.  夜视融合图像质量主观评价方法 . 红外与激光工程, 2013, 42(2): 528-532.
    [20] 张勇, 金伟其.  夜视融合图像质量客观评价方法 . 红外与激光工程, 2013, 42(5): 1360-1365.
  • 加载中
计量
  • 文章访问数:  2354
  • HTML全文浏览量:  1009
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-01-13
  • 修回日期:  2020-02-15
  • 网络出版日期:  2020-04-29
  • 刊出日期:  2020-05-27

基于对焦清晰度的双分辨相机变焦算法研究

doi: 10.3788/IRLA20190463
    作者简介:

    金哲彦(1996-),男,博士生,主要从事成像与图像处理方面的研究。Email:11930051@zju.edu.cn

    李奇(1973-),男,副教授,博士,主要从事成像与图像处理方面的研究。Email:liqi@zju.edu.cn

基金项目:  十三五民用航天预先研究项目(D040301)
  • 中图分类号: TP751

摘要: 双分辨率相机同时兼顾大视场和高分辨,利用同轴光学固定结构避免了变焦镜头运动部件带来的诸多问题,在深空探测目标跟踪和手机等智能终端上具有应用价值。针对现有的基于深度学习的双分辨率图像变焦算法的速度慢,信息量没有提升,图像网络结构适配性差和图像信息修复的伪造性等问题尝试性地提出了加入基于深度信息的解决办法。论证将图像对焦清晰度作为深度信息引入双分辨变焦算法的可行性,探讨对焦深度信息检测精度与效果,分别测试深度学习和基于深度信息的传统方法的双分辨率变焦算法,得到了一种不影响正常成像速度,内存开销降低35%和算法复杂度降低60%,超分辨信息真实可靠,图像结果评价提升10%到50%的全新算法。

English Abstract

    • 光学超分辨成像是光学研究的热门领域,无限逼进甚至超过光学成像的理论分辨率成为了整个光学领域最重要的课题之一。双分辨相机的本质问题其实是光学成像超分辨的应用。航天双分辨相机利用在镜头组里的大棱镜组分光实现同轴不同尺寸和分辨率的双像面成像,可以减小航天器光学系统的载荷并提高光学系统的稳定性,做到“大视场追踪小视场看清”。浙江大学光学成像课题组已经将航天双分辨相机应用于嫦娥四号中继星并取得了不俗的成绩。双分辨相机的数字变焦技术,主要是提高双分辨相机的工作性能,兼顾大视场和高精度。同时对于智能手机等个人消费品而言,两个以上不同焦距的定焦摄像头也可以组成近似同轴的双分辨相机系统。优秀的双分辨变焦算法可以大大提高智能手机的拍摄水平,通过手机自身强大的运算能力和多定焦镜头来弥补自身为了便携性所牺牲掉的光学变焦特性。

      大部分双分辨率变焦算法还停留研发阶段。现有算法主要分三种,基于卷积神经网络(CNN)特征提取的双焦相机连续数字变焦[1],基于光流深度学习的双分辨率算法,基于高频信息重构的纹理匹配和小波变换算法[2]。在时域和频域两个方面分别利用传统方法和深度学习的方法或者多通道信息融合的办法将窄视场高分辨图像的信息提取出来,提高宽视场低分辨率的图像质量。同时国内外研究者提出了很多优秀的RefSR[3](有参考的超分辨)算法:2018年的基于CrossNet的RefSR[4],2019年3月的SRNTT算法等[5]。这些算法的使用在双分辨相机当中取得了较好效果(原因是参考图像是同轴的),但也出现了计算速度偏慢,虚假信息参考等问题,这也是文中算法要解决的问题。文中将引入对焦过程中的清晰度变化作为双分辨算法的约束和辅助计算条件。

    • 无论激光对焦、相位对焦、反差对焦,相机必定在对焦过程中提取信息。在正常对焦过程当中加入深度信息的提取对于成像速度没有新增的负担。通过景深公式(1)可以看出当相机镜头正常的对焦之后,其他参数不变,物距d越大,景深Z越大,前景深Z比后景深Z要小[6]。因此在文中算法中,对焦点前的深度信息会被适当压缩。焦点后的深度信息会较为松散,在物距较长的拍摄状态下景深的宽容度也较大,深度信息矩阵也可以在更大的动态范围内工作。小物距高精度,大物距大量程恰恰非常适合文中算法。

      $$ {{Z}} = \frac{{4{{r}}{{{f}}^2}{{dD}}}}{{4{{{r}}^2}{{({{d}} - {{f}})}^2} - {{{f}}^2}{{D}}}} $$ (1)
    • 传感器尺寸不变,相机在进行对焦过程中由于物距的变化视场角会有略微变化。如公式(2)中焦距f不变,视场角θ随着物距d正相关变化。图1中显示了对焦过程中的视场区域的变化,可以看到图像边缘有一些裁切。

      图  1  对焦过程中的视场变化

      Figure 1.  Field of view change during focusing

      $$ 2\theta = 2{\rm{arctan}}\left( {\frac{d}{{2f}}} \right) $$ (2)

      因此未经处理的图像深度矩阵并不能直接使用,解决这类问题的办法有两种。基于算法的尺度不变特征变换(SIFT)或加速稳健特征(SURT)配准和利用相机马达硬件信息[7]。SIFT算法的匹配准确率高于SURF算法,SURF算法的匹配速度高于SIFT算法。两者算法对于图像的配准效果很好,但是文中的方法只记录了简单的深度信息矩阵,相比于完整的图像信息量较少,可能对特征点配准有不利影响。而对于完全同轴的双分辨率图像只需要根据相机的镜头模组的音圈马达变焦信息进行合适的裁切即可,从而大大降低了算法复杂度。另外需要注意的是不同的对焦图像存在不同的像差,但定焦镜头和同轴因素使像差在纹理信息匹配中影响不大。手机等设备在对焦过程中的抖动可以参考最新的全景稳像算法来解决[8]

    • 主流的图像清晰度评价函数主要是用于评价图像质量和相机对焦效果的。图像清晰度评价函数可分为梯度函数和频谱函数[9],部分学说认为熵函数也有应用价值也可分为一类。常用的梯度函数有Tenengrad函数、能量梯度函数、Brenner函数、方差函数。相同情况下,频谱运算时间长,但精高。梯度函数运算是速度快,但精度低。一个好的评价函数需要具有单峰性、无偏性、灵敏性。文中测试发现在对于不同对焦情况下,采用Laplace算子、能量梯度算子和Brenner梯度法较好,而方差法效果较差,Laplace算子是最适合文中深度信息提取的图像清晰度评价图像。但要注意的是,虽然Laplace评价函数的精度高但是抗噪声性能较差,对于噪点多的图像建议先去噪或者使用别的评价函数。

    • 对大部分图像来说都会有前景和后景,对于同一深度的物体人们可以简单地认为是同一个纹理区域带。不同的物体有不同纹理,不同的物体一般也有不同的空间深度关系。利用相机成像过程中本来就有的对焦信息进行提取,使用对焦清晰度便可以将不同纹理区域提取出来,并计算不同的纹理之间的关系。

      图2中对某一常规景物进行拍摄的实例,该图是实验演示图像组,真实拍摄的时候相机不需要这部分图像信息,只需要在对焦过程当中提取图2(b)部分灰度内容即可。

      图  2  基于对焦实拍图像的深度信息提取

      Figure 2.  Depth information extraction based on focus real shot image

      可以发现图2经过后转成灰度图像,高像素值代表对焦准确区域。在某一景深的位置范围内,不同图像当中的不同像素值也代表了不同的深度信息。将这些信息结合便可以得到这个拍摄场景不同物体的深度关系。通过图2(b)可以看到深度逐渐从右侧的树丛向左移动,最后移动到窗框和鞋子,甚至对于复杂树丛也可以分析出层叠纹理的远近位置关系。

    • 任何一种图像清晰度评价函数应用在文中的算法内都有缺陷。基于纹理变化的图像清晰度函数只有明显的纹理变化区域才会体现较高的图像清晰度评价函数值,对于普通的纯色小块区域图像清晰度评价函数值较低,例如由远到近的墙面纹理信息。单纯的图像清晰度矩阵和文中想要的深度信息矩存在差距。

      然而这种图像处理结果上的差距恰恰是文中方法的优势。Laplace算子不仅是图像清晰度评价还是边缘信息提取函数。双分辨率变焦算法本质上是将高频纹理信息进行迁移。大量的纯色无纹理区域的无法定位对于双分辨率变焦算法没有影响,因为无纹理区域进行纹理迁移或图像小块匹配没有意义。使用基于对焦信息的图像清晰度函数不仅仅是为了找到不同图像中物体的大概位置关系,更是为了找到不同纹理的大概位置关系。这也决定了文中方法的速度优势和信息真实性。

    • 图像清晰度函数是基于图像的纹理关系的图像评价函数。文中通过对焦的清晰度来判断物体的实际位置。但面对焦外多纹理区域和焦内低纹理区域,利用Laplace函数评判效果较差。容易把焦外多纹理区域判断成为焦内的同一个物体。图3(a)为大景深原场景图,图(b)、(c)、(d)为小景深下对焦在远中近的深度信息图像。图3(a)中近处衣物即便在最远对焦情况下依然亮度最高的。单纯一张图像无法区分没有对焦上的密纹理衣物和对焦上的光滑物体。

      图  3  对焦位置不同对深度提取的影响

      Figure 3.  Different focus positions impact depth information extraction

      基于上述纹理对于深度信息提取的影响,文中提出了差分Laplace的处理方法及基于前后两个不同的对焦点的深度信息矩阵。前后两个矩阵的匹配精度非常关键,文中1.2节提出的基于相机马达的同轴匹配就是应用在这里,其精度决定了差分后的检测效果。

    • 文中图像算法流程如图4所示,普通的双分辨率图像小块匹配算法只有右边的一列,将高分辨窄视场和低分辨率宽视场的图像根据倍率关系paste后,选择合适的图像小块尺寸,根据合适的图像小块匹配标准,把已有的图像小块和基于深度学习的动态图像小块合成。文中提出的工作在流程图的左侧,主要是通过配准过的基于差分的Laplace深度矩阵来寻找图像中的深度信息,作为图像匹配距离的控制依据和图像小块生成依据,从而大大提高图像的信息量和匹配效率,拒绝无用和错误匹配。文中算法需要相机正常对焦过程当中的对焦信息,不同于普通的多帧成像,这里只需要不同对焦段的对焦信息。

      图  4  主算法流程图

      Figure 4.  Main algorithm flow chart

      图像小块的匹配标准有很多,越简单的图像小块匹配算法,越能体现文中监督方法的有效性。文中采用颜色三通道 phash 小块匹配方法,该方法能同时解决颜色和纹理匹配两大问题。小块的拉伸,旋转都根据具体图像具体设定。当然也有很多不错的图像匹配算法,例如离散余弦变换DCT匹配,Gram 纹理尺寸匹配,BM3D加速的图像小块匹配等,都可以应用在文中的算法当中。

    • 以往图像小块的匹配算法主要分两种:直接替换法和基于感受野的深度图像恢复方法。直接替换法是利用高清纹理的图像小块去替换低纹理区域类似的图像小块,这样画面更加锐利但信息量没有提升,反而块与块之间的差异更小了。基于感受眼的深度图像恢复方法可以认为是在高神经网络层的直接替换法,在将图像恢复到底层,来提高画面质量。看似提高了信息量但是并没有基于传感器的实际信息。

      因此,文中提出了基于对焦清晰度的梯度预测的图像小块动态预测与生成。主要的做法是将在目标块的图像动态范围之内寻找满足图像纹理匹配标准的小块,并把这些新小块的深度信息挖掘出来,通过加权平均等方式调整纹理和颜色来生成新的图像小块。本质上是把基于对焦的深度信息放入到小块纹理关系当中。具体基于深度信息的图像小块算法流程算法如下:

      (1)从深度矩阵X中计算图像的RR为深度矩阵X相近区域的范围)。

      (2)从图像I中找需要匹配的图像小块IijIijXijij位置的图像小块和深度矩阵的值)。

      (3)从深度矩阵X当中找到Iij对应的Xij

      (4)寻找Xij R范围内的所有Xab

      (5)在中部高分辨率图像部分找到符合|XabXij|<min|XabXij|*RIab

      (6) 检验IabIij是否符合基础匹配条件。

      (7)根据|Xab-Xij|作为权重匹配所有Iab

      (8)用第(7)步的结果替换Iij

      (9)返回第(2)步,第(3)~(6)步无法执行返回第(2)步。

    • 算法:基础的图像处理过程

      (1) 拍摄图像4 032×3 016(2张72dpi图像)。

      (2) resize到4 000×3 000或500×500。

      (3) crop(0.25 0.25 0.5 0.5)。

      (4) bicubic imresize第二步一半分辨率。

      (5) 同轴paste第(3),(4)步结果得到图像I

      (6) 对于第(4)步的结果计算图像深度矩阵。

      成像设备:智能手机,主摄像头:光圈f/1.8,4 mm焦距,图像分辨率为4 032×3 016。副摄像头:光圈f/2.6,6 mm焦距,图像分辨率为4 208×3 120。无论主摄像头、副摄像头生成的图像均为 72dpi 24位深度sRGB色域空间的图像。

      计算设备:AMD Ryzen 5 1600+B450M+16 G(DDR4 2666)+GTX 1060 5 GB+L8H 256 GB SSD(代码放置)+Samsung 850EVO SSD(图片放置)。

      软件环境:Python 3.6(IDE)和Matlab。

      图像采集:实验基础的图像采集过程如下文算法。高分辨率小视场和低分辨率大视场的图像尺寸为1:2。第(3)步的图像也可以使用手机副摄像头的成像结果经过融合来代替。

    • 选择合适的图像小块尺寸是文中方法成功的关键。图像小块的尺寸选择分两个部分,深度信息的小块尺寸和图像匹配小块尺寸的大小。

      为了避免无效的重复计算和边缘信息丢失,一般匹配图像小块尺寸小于深度图像尺寸、小于原图像尺寸,取整数倍的比例缩放。因为深度信息矩阵的图像小块只需要找到大概的轮廓和深度为后续的匹配提供信息即可,精度要求远低于图像匹配小块。根据表1可以发现深度矩阵相对复杂度略低于矩阵尺寸平方增长。文中方法下相机应分别获取未对焦和对焦后的两张图像。在对焦过程中对前一张未对焦获得图像计算深度矩阵。应根据相机对焦时间和算力确定最大的深度信息尺寸。如图5所示,图像在50~100尺寸已经可以起到区分深度的作用了,100~200可以为图像小块动态匹配提供依据,低于50或高于500不建议使用文中的方法。文中方法是用光学方法提高计算速度,不应本末倒置,降低正常成像速度。

      表 1  不同尺寸深度矩阵的运算时间(单位:s)

      Table 1.  Calculation time of different size depth matrix (Unit:s)

      Size depth matrix size4 000×3 000 (original image)
      20×2050×50100×100200×200500×500
      Computing time6.6116.1154.60188.841 114.69

      图  5  不同尺寸的深度图像小块比较

      Figure 5.  Comparison of different size depth image patches

    • 深度提取的性能是文中提出的变焦算法的核心。越多的深度信息图像对于区分物体的效果更好,越多的深度信息矩阵对于去除文中1.4.3节中图像纹理的副作用越好。文中的方法最低要求一个对焦过程的深度矩阵和正常双分辨图像,这样才能通过差分来去除纹理的副作用,并且计算出前后的位置关系。并且两张矩阵的对焦点差距越大效果越好。但文中建议在相机正常对焦的过程当众应该以正常对焦为高优先级,因为深度信息矩阵的精度要求较低,且引入深度矩阵是为了解决成像计算速度慢的问题,不能背道而驰。

      通过前面图3的对比,不难发现图像清晰度函数不仅可以勾勒纹理区域还还可以区分成像物体的远近。前景的布料在对焦近处时清晰度函数的值很高,在对焦中等深度时次之,对焦远处时最弱。中景物体书本在对焦中等深度时最为锐利,前后景的图像清晰矩阵差距不大。后景的水壶由于不像前面两种景物纹理丰富,图像清晰度值相对较低,但也能看的出在对焦近处时远没有对焦远处时深度矩阵锐利。基于对焦清晰度的图像深度矩阵完全检测出了不同物体,并且为双分辨相机变焦提供了所有需要的信息。

    • 文中的算法处理结果如图6所示。通过图像纹理细节,可以明显看到图像质量的提升。图6(a)为双分辨率paste图像,图6(b)(c)(d)分别为近中远处图像处理结果,图6(e)为SRCNN结果,图6(f)为真实(label)图像。由表2可知,文中方法的PSNR不如SRCNN(PSNR和人眼实际感受上差异已经是图像超分辨领域的共识),但在图像的结构相似性SSIM上是完胜SRCNN的,可见SRCNN在PSNR上的领先是付出巨大代价的。而文中的方法Laplace算子评价值相比于原图有较大提升。

      图6显示了500×500的图像大尺寸图像小块的匹配结果,4 000×3 000尺寸显示效果不明显。经过测试4 000×3 000的paste图像应用文中的方法,在小尺寸图像小块的情况下(相当提高了图像小块匹配精度),图像处理结果更加细腻。平均图像Laplace从232.25提升到386.28,平均提升超过60%。

      图  6  实拍图像基于对焦清晰度的大尺寸块匹配迁移结果

      Figure 6.  Real shot image focus based large size block matching migration results

      表 2  不同算法的图像处理结果对比

      Table 2.  Comparison of image processing results of different algorithms

      Image evaluation functionImage processing algorithms 500×500
      Label(f)Paste(a)SRCNN(e)In the paper(b)In the paper(c)In the paper(d)
      PSNR25.8527.4024.4724.2124.19
      SSIM0.86650.736 40.817 30.812 60.811 0
      MSE169.08118.28232.31246.41247.65
      Laplace379.16263.50289.49278.16278.44278.12
    • 空间相机等成像设备成像速度是远远快于图像处理的处理速度的。略微加长相机对焦时间和成像系统的存储空间负载,可以大大降低图像融合的计算负载,从而达到实时的图像处理。由表3可知,文中的算法是在相对计算时间和峰值内存开销上都远远胜过单纯的SRCNN,相对计算时间下降了约60%,峰值内存开销约35%。使用相对计算时间是多次程序运行时间的平均取整后得到。峰值内存开销以关闭所有前台运行程序后2.7 GB/16 GB作为计算基准,找到运行过程当中最大的内存开销然后减去基准值获得。可见,文中算法对于其他更加先进的深度学习RefSR改进到双分辨变焦算法当中还有巨大的提升作用。

      表 3  不同算法的图像计算时间与内存开销

      Table 3.  Image calculation time and memory overhead of different algorithms

      ImageRelative calculation timePeak memory overhead/GB
      BI SRCNN ours ours+ BI SRNN ours ours+
      4 000×3 000×1233141.013.28.3
      500×500×31166111.011.77.97.9
      Note: “ours+” is the algorithm of this paper using multiple depth matrix, such as the paper(c) and paper(d) in Tab.2。
    • 文中提出了双分辨相机中对焦清晰度的深度信息提取方法并讨论硬件和软件的可行性,提出利用双分辨率多组对焦图像并提取深度信息的方案。文中结合深度信息基于小块匹配选择多种精度和匹配标准来修复双分辨率图像,并将结果和SRCNN做了比较。论证了将深度信息匹配到深度学习的有参考图像深度学习网络中可行性,大大提高了算法的效果和速度。

      文中提出了结合深度信息来选择双分辨变焦算法中的参数的新方法。在不影响正常成像的条件下,大大降低了开销,提高了信息可靠度,提高了信息量。

      在此次的试验中发现,深度图像精度对于文中算法在其他图像处理算法应用效果起到了决定性的作用。文中下一步的工作目标是使用双分辨相机读取相机马达的对焦参数,并在相机对焦过程当中底层进行画面裁切配准和深度信息抓取,进行工程上的测试,从而提高算法的的准确性和稳定性。文中仅仅讨论了该方法应用在传统匹配方法中的效果,相对于普通深度学习效果不错。希望可以将该方法用于最新的RefSR深度学习算法中并移植到双分辨成像当中来提高效果。

WeChat 关注分享

返回顶部

目录

    /

    返回文章
    返回