-
为了验证文中方法的有效性,文中在MATLAB2017a软件下进行实验验证,测试环境为:内存12 g,Inter CPU i5-5200u,操作系统windows7 64位系统。实验用国际上公认的标准Middlebury数据集来进行,对数据集中彩色图像进行灰度化处理,并将灰度像与深度像的分辨率统一变换为360×400,灰度像与深度像均采用8 bit量化,量化范围0~255。首先,对数据集中的原始高分辨灰度像进行4×与16×下采样来模拟低分辨的深度像(低分辨深度像尺寸为180×200, 90×100);然后选择了双三次插值(BI)、基于导向滤波算法[18]、基于联合双边上采样(JBU)算法[14]和基于三边滤波算法[16、21]与文中方法在重建效果与实时性上进行对比。选用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和参考文献[23]所建议的坏点率(Bad Pixel,BP)两个指标来评价算法的重建性能,从而定量评价重建后的结果。其中PSNR定义如下:
式中:m、n是图像大小;BP是通过计算超分辨重进后的深度图像和原始深度图像之间深度绝对差值大于1的像素点数目占整幅图像的比例获取。
-
实验中的算法参数如下:初步上采样的深度像和高分辨的灰度图像使用Canny算子进行边缘提取;边缘二值图ED使用3×3大小的窗口进行膨胀处理;导向滤波的正则化参数
$\varepsilon $ 为0.001,窗口大小5×5,灰度值相似度函数参数${\sigma _r}$ =2,对比算法均采用参考文献中的推荐参数。图4与图5是以Middlebury数据集中的reindeer、Teddy和Bowling三个数据为例,使用原始深度像的4×与16×下采样图像进行超分辨重建。为了更清晰地看出重建后的深度像细节,截取了图像的局部区域进行放大。图中:(a)是原始的高分辨深度图像;(b)局部窗口所对应的灰度图像;(c)局部窗口所对应的深度图像;(d)~(h)分别为双三次插值(BI)、参考文献[18]、[14]、[16]和[21]对低分辨深度像的重建结果;(i)为文中方法所得到的结果。
从图4与图5的实验比较结果可以看出:仅使用BI插值算法对深度像进行上采样,深度像的边缘模糊情况会随着上采样倍数的增加而增加;图中(e)为参考文献[18]使用导向滤波算法重建的结果,出现的纹理复制的情况在16×重建时纹理复制现象更加明显;图中(f)为参考文献[14]得到的结果,算法采用绝对平均差(Mean Absolute Difference,MAD)找出边缘纹理一致的像素点,然后使用双边滤波器对插值后的深度像进行重建,然而此方法没有考虑边缘错位的问题,容易出现边缘一致点定位错误,因此会出现边缘模糊的情况,特别在16×重建时现象较为明显;图中(g)、(h)分别为参考文献[16]、[21]的重建结果,两种算法过程类似(边缘提取方法不同)使用的是基于联合三边滤波算法并通过迭代的方式逐步优化插值数据,因此细节还原较好,在4×与16×重建时均能较好的还原深度边缘特征;图中(i)为文中算法得到的结果,由于文中算法对导向滤波器参数根据灰度像边缘位置关系重新加权获得,而且使用多尺度Canny得到了较为准确的深度像边缘,因此相较BI插值、参考文献[18]、[14]深度像边缘明显清晰重建质量较好,与参考文献[16]、[21]效果相当。
表1与表2进一步给出了重建结果的定量分析,使用Middlebury数据集中的8幅深度像进行测试,对比了5种方法的PSNR与BP值。在4×超分辨重建时各对比算法与文中算法的PSNR平均值为39.23 dB、39.49 dB、40.16 dB、40.79 dB、40.69 dB和40.93 dB,BP平均值为5.50%、5.28%、4.71%、4.17%、4.22%和3.98%,从指标上可以看出文中方法具有更好的重建质量。在16×超分辨重建时,参考文献[16]、[21]和文中算法均获得了较好的结果,PSNR均值分别为37.90、37.72和37.76,BP均值分别为6.52%、6.63%和6.61%,从指标上看三者差异不大,而相比于其他算法在重建质量上均有明显提高。实验中发现对数据集里的Dolls和Rocks2进行重建时不论是参考文献方法还是文中方法对重建质量的提升并不明显,主要原因是:在纹理复杂的条件下,使用基于滤波的方法对深度像进行超分辨重建时高分辨的可见光图像中的边缘特征与深度像中的边缘特征一致性变差,从而限制了算法的性能。对于文中算法来说,如果出现上述情况算法提取公共边缘变少重建后的深度像的像素值主要由初始插值数据代替,因此试验结果与BI插值接近。
Middlebury image PSNR/dB BP/% BI Wan[18] Shin[14] Lo[16] Li[21] Proposed BI Wan[18] Shin[14] Lo[16] Li[21] Proposed Bowling 41.11 41.57 42.98 42.39 42.44 42.51 3.79 3.57 2.47 2.04 1.93 1.81 Reindeer 39.92 40.12 40.12 41.72 41.65 41.52 4.71 4.01 4.15 3.26 3.31 3.35 Teddy 39.27 39.08 39.81 41.57 41.31 42.05 4.96 5.35 4.58 3.21 3.28 2.64 Flowerpots 37.48 38.24 38.67 38.98 38.82 39.13 7.18 6.42 6.01 5.73 5.83 5.25 Baby 41.47 42.01 42.32 42.97 42.81 42.87 3.31 2.81 2.71 2.11 2.27 2.31 Venus 43.22 43.87 45.08 45.63 45.71 46.03 2.20 2.05 1.13 1.03 0.98 0.88 Dolls 35.16 34.84 35.26 35.71 35.62 36.08 9.97 10.01 9.02 8.95 9.02 8.53 Rocks2 36.23 36.17 37.01 37.32 37.21 37.28 7.89 8.02 7.61 7.03 7.10 7.12 Table 1. Comparison of PSNR and BP with upsampling factor 4
Middlebury image PSNR/dB BP/% BI Wan[18] Shin[14] Lo[16] Li[21] Proposed BI Wan[18] Shin[14] Lo[16] Li[21] Proposed Bowling 38.04 37.89 38.02 39.89 39.62 39.76 6.87 5.93 5.12 3.35 3.38 3.41 Reindeer 36.01 36.47 37.12 37.86 37.71 38.51 7.78 7.43 6.51 5.12 5.31 5.27 Teddy 36.20 36.65 37.61 38.41 38.36 38.21 7.26 7.14 5.71 4.27 4.30 4.31 Flowerpots 34.13 34.47 34.31 36.48 36.21 35.89 11.70 10.92 11.45 9.34 9.47 9.56 Baby 38.44 38.63 39.87 40.46 40.17 40.22 6.46 6.33 4.81 3.31 3.51 3.41 Venus 40.92 40.98 41.47 41.88 41.73 41.53 4.72 4.62 4.14 3.18 3.21 3.23 Dolls 33.17 33.05 33.27 33.43 33.25 33.21 12.98 13.02 12.87 12.56 12.59 12.61 Rocks2 34.51 34.38 34.62 34.81 34.69 34.73 11.82 11.51 11.25 11.07 11.26 11.14 Table 2. Comparison of PSNR and BP with upsampling factor 16
表3给出了各算法对表1和表2中8组实验数据的平均执行时间,分别为8.02 s、0.19 s、1.84 s、7.5 s和0.32 s。文中在导向滤波算法的基础上引入了公共边缘区域约束因此较参考文献[18]的平均运行时间长出0.13 s。与参考文献[14]、[16]和[21]相比,文中算法在运行速度上有明显优势分别提高了5.75倍、23.4和25.06倍。
Table 3. Runtime comparison
因此,综合考虑超分辨重建对数据质量和计算复杂度之间的关系,文中提出的算法比对比算法具有更好的性能,适合运用在对实时性要求较高的场景。
窗口大小R是导向滤波中的敏感参数,表4给出了文中算法不同窗口大小对超分辨重建的影响。
BP/% of 4×/16× SR Teddy Bowling Window size 4× 16× 4× 16× 3×3 4.07 5.95 3.42 5.04 5×5 2.64 4.31 1.81 3.41 7×7 3.72 5.14 2.63 4.83 Table 4. Considering different window sizes of R
表中对两组4×和16×超分辨重建结果使用BP值作为评价标准,结果表明:当用较大或较小的窗口时,文中算法的有效性均有所降低,因此文中选择5×5作为窗口大小。
为了进一步理解文中算法中的边缘约束在导向滤波超分辨重建中的作用,对比了没有将公共边缘区域中的像素点与灰度图像边缘之间的位置关系作为计算权重的依据,而是直接由均值决定的两种实验对比,结果见表5。
BP/% 4× SR 16× SR Without edge constraint 3.85 6.16 Proposed GF 2.31 3.41 Table 5. Influence of edge constraint on the guidance filter algorithm
表5以数据集中Baby为例可以看出,文中算法所得到的图像质量高于用均值作为权重时的重建质量,进一步验证了该算法的有效性。
Edge area constraint guided filter depth image super-resolution reconstruction algorithm
doi: 10.3788/IRLA20200081
- Received Date: 2020-03-17
- Rev Recd Date: 2020-05-30
- Available Online: 2021-01-22
- Publish Date: 2021-01-22
-
Key words:
- super-resolution reconstruction /
- guided filter /
- depth map /
- edge area constraint
Abstract: A super-resolution reconstruction method was proposed to solve the edge blurring and texture copying in the depth map from the super-resolution process when using guided filter. The proposed method was based on the guide filter and high-resolution grey image’s edge feature-constrained. Firstly, up-sampling the low resolution depth image by interpolation and the edge region of the depth image was extracted by multi-scale edge detection. Subsequently, the depth map and high-resolution grey image’s edge were extracted. Then, the public edge region was extracted according to the similarity between gray image and depth map. Finally, the high-resolution depth map was constructed through the position of gray image edge pixels in the public edge region constrainting the feneration of guide filter coefficients. By means of the validation of Middlebury data set and the combination with four super-resolution reconstrcution algorithms based on the filter, the proposed method can better protect the edge feature of depth map reconstruted by super-resolution, attain the high-resolution depth, and has high calculation efficiency. The results can provide theoretical basis for target recognition and scene reconstruction of low resolution lidar.