-
三维结构光测量系统由投影仪和相机组成。光线由投射器发出,经过场景的反射与散射后,被相机接收。由于全局光照的影响,相机中每个像素所接收到的光线并不都是直接反射光,还可能包含互反射光和次表面散射光,如图1所示。
图1中黑色的光线为直接光照,该光线照射到物体,被物体反射后直接被相机捕获到。红色的光线为互反射光,是由一束光照射到被测物体表面后,反射到被测物其他位置处而形成的。绿色的光线是次表面散射光线,这部分光线入射到被测物体后,在物体内部发生散射,然后从入射点周围出射,最终才被相机捕获到。
根据图1可知,光线从投影仪发出后,可能经历直接反射、互反射或次表面散射后被相机捕获。假设当从投影仪像平面某点
$ {{x}}'{\rm{ = (}}u'{\rm{,}}v'{{\rm{)}}^T} $ 处发出光线的能量为$P({{x}}')$ 时,相机像平面某点$ {{x}}{\rm{ = (}}u,v{{\rm{)}}^T} $ 处接收到的全部光能量为$I({{x}})$ ,此时可定义无量纲的光传输系数$h({{x}}';{{x}})$ :$$h({{x}}';{{x}}){\rm{ = }}\frac{{I({{x}})}}{{P({{x}}')}}$$ (1) 考虑到环境光的影响,相机像素的响应可表达为:
$${I_i}({{x}}) = O({{x}}) + \int_\Omega {h({{x}}';{{x}}){P_i}({{x}}')d{{x}}'} $$ (2) 其中,
$O({{x}})$ 为${{x}}$ 处接收到的环境光能量。$\Omega $ 为投影仪的投射区域。该式表明相机某像素的响应受到投影仪整个投射区域的影响。下角标$i$ 表示不同的投射次数。 -
在基于四步相移原理的投影光栅测量方法中,投影仪投射的正弦条纹
${P_i}({{x}}')$ 可以表示为[24]:$${P_i}({{x}}') = A + B \cdot \cos \left[\phi ({{x}}') + \frac{\pi }{2} \cdot i\right]$$ (3) 式中:
$A$ 表示平均亮度或者直流分量;$B$ 表示条纹调制度;$\phi ({{x}}')$ 表示投影仪像平面${{x}}'$ 处的相位;$i$ 为四步相移的系数,取值为$i{\rm{ = }}0,1,2,3$ 。当相机和投影仪均对焦完好,物平面上的每个点都对应像平面上的一个点。设
${{x}}'$ 对应物体上的${{X}}'$ ,${{x}}$ 对应物体上的${{X}}$ ,由上述分析可知,若全局光照不存在时,当且仅当${{X}}'{\rm{ = }}{{X}}$ 时,$h({{x}}';{{x}}) \ne 0$ 。此时,光传输系数退化为反射率$R({{x}})$ ,根据公式(2)可知相机像素响应为:$${I_i}({{x}}) = O({{x}}) + R({{x}}){P_i}({{x}}')$$ (4) 其中,对相机像素响应有影响的投影仪坐标为一个特定的点
${{x}}'$ 而不再像公式(2)中受到整个投射区域的影响。公式(4)中的
${{x}}'$ 可先由公式(5)获得包裹相位,再根据多频外差法[4]得到绝对相位。$$\begin{split} \phi ({{x}}') =\; &\arctan \frac{{{I_3}({{x}}) - {I_1}({{x}})}}{{{I_0}({{x}}) - {I_2}({{x}})}}=\\ & \arctan \frac{{\sin (\phi ({{x}}'))}}{{\cos (\phi ({{x}}'))}} \end{split} $$ (5) 由于全局光照的影响,相机像素的响应不再是仅取决于投影仪上某一个像素的亮度,而将受到一个区域范围内的影响。此时,根据公式(2),若依然使用公式(5)进行解相,则解相结果为:
$$\begin{split} {\phi _c}({{x}}')=\; & \arctan \frac{{{I_3}({{x}}) - {I_1}({{x}})}}{{{I_0}({{x}}) - {I_2}({{x}})}}=\\ & \frac{{R({{x}})\sin \phi ({{x}}') + \int_{{\Omega _{/{{x}}'}}} {h({{y}}';{{x}})\sin \phi ({{y}}')d{{y}}'} }}{{R({{x}})\cos \phi ({{x}}') + \int_{{\Omega _{/{{x}}'}}} {h({{y}}';{{x}})\cos \phi ({{y}}')d{{y}}'} }} \end{split} $$ (6) 其中
${\Omega _{/{{x}}'}}$ 为投射区域中不包含${{x}}'$ 的区域。${{x}}'$ 为${{x}}$ 在投影仪像平面对应的直接反光点。${{y}}' $ 为${{x}} $ 投影仪像平面对应的全局光照点。相比于公式(5),公式(6)中的分子和分母分别增加了表示全局光照影响的项。
将公式(6)上下同除以
$R({{x}})\cos \phi ({{x}}')$ ,并使用三角函数的和差角公式进行化简,可以得到:$${\phi _c}({{x}}'){\rm{ = }}\phi ({{x}}') + \Delta \theta ({{x}})$$ (7) 其中,
$$\Delta \theta ({{x}}){\rm{ = }}\arctan \frac{{\int_{{\Omega _{/{{x}}'}}} {h({{y}}';{{x}})\sin \Delta \phi ({{y}}')d{{y}}'} }}{{R({{x}}) + \int_{{\Omega _{/{{x}}'}}} {h({{y}}';{{x}})\cos \Delta \phi ({{y}}')d{{y}}'} }}$$ (8) $$\Delta \phi ({{y}}'){\rm{ = }}\phi ({{y}}') - \phi ({{x}}')$$ (9) 公式(7)表明当全局光照不可忽略时,对相机像素
${{x}}$ 由公式(6)解算得到的相位${\phi _c}({{x}}')$ 相较于真实相位$\phi ({{x}}')$ 有一个偏差$\Delta \theta ({{x}})$ 。该偏差是光线从光源的其他位置${{y}}'$ 发出后,经光传输过程后综合作用的结果,由公式(8)给出。由该公式可知,全局光照的影响已经被混合于结果中,难以将它们分离开。这将造成三维形貌测量不完整或发生错误,解算得到的相位发生偏移,导致3D点远离实际位置。另一方面,由公式(8)可知,仅在特殊情况下,例如
$h({{y}}';{{x}})$ 关于点${{x}}'$ 为偶函数时,公式(8)中分子积分号内的函数为奇函数。此时该积分项变为零,解算的结果才是正确的。而对于一般情况,尤其是存在互反射的情况下,$h({{y}}';{{x}})$ 将不关于点${{x}}'$ 具有对称性。 -
由于单像素成像方法通过空间调制器(例如投影仪)对入射光场进行编码,从而得到入射光场视角下最终可被单像素探测器所接受到的光能量。因此,根据直接光照和全局光照的混合光特点,提出将单像素成像原理作为直接光照和全局光照分解问题的理论模型。
假设采用基于傅里叶变换的单像素成像方法,向被测场景投射正弦条纹:
$${P_i}({{x}}';{{k}}) = A + B\cos \left[{{{k}}^T} \cdot {{x}}' + \frac{\pi }{2}i\right]$$ (10) 式中:
$ {{x}}'{\rm{ = }}{(u',v')^T} $ 表示投影仪像平面某点;${{k}}'{\rm{ = }}{\left(\dfrac{{2\pi \cdot k}}{M},\dfrac{{2\pi \cdot l}}{N}\right)^T}$ 表示离散空间频率;$M$ 和$N$ 为投影仪的横向和纵向分辨率;$k$ 和$l$ 分别取$k{\rm{ = }}0,1...M - 1$ 和$l{\rm{ = }}0,1...N - 1$ 。若将相机上每个像素视为一个独立的单像素探测器,则对于相机像平面某点
${{x}}$ ,根据公式(2),其响应为:$${I_i}({{x}};{{k}}) = O({{x}}) + \int_\Omega {h({{x}}';{{x}}){P_i}({{x}}';{{k}})d{{x}}'} $$ (11) 当完成投射傅里叶单像素成像所需要的条纹后,根据下式进行傅里叶单像素成像重构:
$$\begin{split} & {F^{ - 1}}\{ [{{I}_0}({{x}};{{k}}) - {{I}_2}({{x}};{{k}})] + j[{{I}_1}({{x}};{{k}}) - {{I}_3}({{x}};{{k}})]\}= \\ & {F^{ - 1}}\left[ {\int_\Omega 2{B \cdot h({{x}}';{{x}})exp(j \cdot {{{k}}^T} \cdot {{x}}')d{{x}}'} } \right] = \\ & 2B \cdot h({{x}}';{{x}}), \end{split} $$ (12) 式中:
${F^{ - 1}}( \bullet )$ 表示二维离散傅里叶逆变换。公式(12)的解算结果为增加了一个比例因子的从投影仪像平面任意点
${{x}}'$ 到达相机像平面某点${{x}}$ 的传输系数。若对于每个相机像素重复该重构过程,可求解得到含有该比例系数的光传输系数。因此,原本来自于光源不同位置且混合在一起的光线,就可以被分解开来,也为全局光照干扰下的三维重构提供了前提和基础。 -
虽然单像素成像可以将来自光源不同位置的混合光分解,但直接光照的位置却并没有被最终确定。对于互反射存在的情形,某像素的单像素成像的结果会呈现出多个较小的光斑。而对于次表面散射存在的情形,某像素的单像素成像的结果会呈现出一个较大的光斑,如图2所示。
图 2 互反射和次表面散射情形下的光传输系数图像;(a)互反射情形下的光传输系数;(b)次表面散射情形下的光传输系数
Figure 2. Light transport coefficients in the case of interreflections and subsurface scattering; (a) light transport coefficients in the case of interreflections; (b) light transport coefficients in the case of subsurface scattering
为了获得直接光照点,首先需要计算出投影仪平面中的极线方程,见图2。根据极线方程对光斑进行筛选,仅当光斑中的最亮位置距离极线小于给定阈值时,才将该光斑作为候选光斑。再对每个候选光斑求取重心坐标,使用距离极线最近的重心坐标位置作为最终的匹配点。最后,采用传统三维视觉重建算法,完成三维场景重构。
-
首先对于一个同时存在互反射和次表面散射的混合场景进行拍摄,获得三维重构数据,证明单像素成像方法可以在互反射与次表面散射同时存在时进行三维重构。其次,对次表面散射下的三维重构进行了更进一步的研究和分析。分别对几个半透明物体单独进行了测量,并与传统方法进行了对比。最后,选择了标准尼龙球测量件和玉马对精度进行了评价,证明单像素成像方法可实现在全局光照干扰下的高质量、高精度三维重建。
实验中使用的相机分辨率为1920×1200,投影仪分辨率为1920×1080。拍摄的帧频为60 fps。
-
首先对一个同时存在互反射和次表面散射的场景进行拍摄,获得三维重构数据。该场景包含5个不同物体,如图3所示。小熊是由石膏制成,接近于漫反射表面,作为参考。洋葱和冬瓜是半透明物体,会产生较强的次表面散射现象。涡轮叶片和金属零部件中产生较强的互反射。
图 3 混合场景中的被测物体;(a)石膏小熊;(b)洋葱;(c)冬瓜;(d)涡轮叶片;(e)金属零部件
Figure 3. Measured objects in the compound scene; (a) gypsum bear; (b) onion; (c) white gourd; (d) turbine blade; (e) metal parts
图4给出了该混合场景的单像素成像的结果。图4(a)为被拍摄的场景,每个物体的名称被标在右侧,同时选取了6个典型位置展示重构的图像。这6个展示点位置被标记在图4(a)中,每个展示点所对应的子图也用小写字母标记。在每个子图的右上角标记了对应相机像素的具体位置坐标以及用于清晰展示时的放大系数。
图4(b)为小熊腹部处的一点,由于小熊为石膏材质,接近于漫反射表面,因此全局光照不明显,故成像结果为一个较小的光斑。图4(c)和(d)对应半透明的蔬菜表面,因而成像的结果为一个较大的光斑,是次表面散射造成的。图4(e)~(g)中均有多个光斑,是互反射产生的。值得注意的是,由于涡轮叶片的光泽表面,在图4(a)中涡轮叶片侧面处可以看到小熊爪子的镜像。图4(e)展示了小熊爪子对涡轮叶片互反射的结果。这张图中有两个光斑,左侧的清晰可见,是小熊爪子把光反射到涡轮侧面的光线。右侧的相对较暗,是照射到涡轮叶片侧面的直接光。图4的各个子图表明单像素成像对混合光进行了有效分离。
图 4 混合场景单像素成像结果;(a)拍摄场景;(b)小熊腹部处某点的单像素重构结果;(c)洋葱某点的单像素重构结果;(d)冬瓜某点的单像素重构结果;(e)涡轮叶片上某点的单像素重构结果;(f)涡轮叶片另一点的单像素重构结果;(g)金属零部件某点的单像素重构结果
Figure 4. The reconstructed images of single pixel imaging method for the compound scenes; (a) the measured scenes; (b) reconstructed single-pixel imaging result of a point on the abdomen of the bear; (c) reconstructed single-pixel imaging result of a point on the onion; (d) reconstructed single-pixel imaging result of a point on the white gourd; (e) reconstructed single-pixel imaging result of a point on the turbine blade; (f) reconstructed single-pixel imaging result of the second point on the turbine blade; (g) reconstruction single-pixel imaging result of a point on the metal parts
图5展示了对该场景三维重构的结果。图5(a)为该场景的全局三维重建结果。图5(b)~(g)分别对应为图5(a)中标有字母的方框内的局部放大图。这几个子图的位置和图4中展示单像素成像结果的位置相互一致。该实验证明了单像素成像方法可以在全局光存在时进行三维重构,且鲁棒性较强,可同时应对互反射和次表面散射同时存在的情形。
图 5 混合场景三维重建结果;(a)场景的三维重建结果;(b)小熊腹部的局部放大;(c)洋葱区域的局部放大;(d)冬瓜区域的局部放大;(e)小熊爪子和涡轮叶片处的局部放大;(f)涡轮叶片的局部放大;(g)金属零部件的局部放大
Figure 5. 3D reconstruction results of the compound scene; (a) 3D reconstruction results of the scene; (b) enlarged abdomen region of the bear; (c) enlarged area of the onion; (d) enlarged area of the white gourd; (e) enlarged bear claw and turbine blade region; (f) enlarged region of the turbine blade; (g) enlarged region of the metal parts
-
为了验证文中提出的单像素成像方法对半透明物体表面三维重建的适用性,我们对多个具有半透明性的物体进行单独测量,被测物体选用半透明性较强的白洋葱、冬瓜,表面形貌较为复杂的貔貅雕像。并同时对物体使用传统投影光栅测量法和改进后的12副平均的投影光栅测量法[5]进行测量,与文中提出的基于单像素成像的三维重构方法相对比,测量结果如图6所示。
图6中的不同行对应不同的被测物体,每一列分别代表被测物体的彩色图片、传统投影光栅测量方法的三维重构结果、改进后(12幅平均)投影光栅测量方法的三维重构结果和文中提出的基于单像素成像方法的三维重构结果。由图6可看出,基于单像素成像的半透明物体三维重建方法比传统投影光栅测量法和改进的投影光栅测量法,在重建结果上三维点云更完整,数据质量较好,解决了传统测量方法因次表面散射现象而导致的测量数据严重缺失问题。
-
为了证明文中提出的单像素成像方法可实现在全局光照干扰下的高质量、高精度三维重建,实验选用直径为25.40 mm的树脂聚酰胺(尼龙)材料的小球和玉马作为测量对象,见图7。
图 7 用于精度评价的半透明材质测量物体;(a) 尼龙球;(b) 玉马
Figure 7. Measured translucent material object for accuracy evaluation; (a) polyamide sphere; (b) jade horse
为了分析尼龙球的测量精度,对重建的点云数据进行球面拟合,根据拟合球面的直径和平均绝对误差和均方根误差对测量精度进行评价。对于玉马,首先使用单像素成像方法对其头部进行三维重建。再对玉马进行表面喷涂漫反射粉末,消去其半透明性,测量获取参考点云。最后,将基于单像素成像的三维点云与参考点云进行比较,以评估其精度。实验对拟合球面后点云的平均绝对误差和均方根误差进行评价。测量结果如图8所示,测量精度的评价数据如表1所示。从实验结果可知,单像素成像的三维重构方法获取的点云精度较高,误差较小。
图 8 半透明测量物体精度评价;(a)尼龙球三维重建结果;(b)尼龙球重建差图;(c)玉马三维重建结果;(d)玉马重建误差图
Figure 8. Accuracy evaluation of translucent measured objects; (a) 3D reconstruction result of polyamide sphere; (b) reconstruction deviations of polyamide sphere; (c) 3D reconstruction result of jade horse; (d) reconstruction deviations of jade horse
表 1 测量精度评价
Table 1. Accuracy evaluation of the measured results
Measured objects Fitted diameter /mm Mean absolute error /mm Root mean square error /mm Polyamide sphere 25.408 0.020 0.026 Jade horse 0.049 0.059
Application of single pixel imaging in 3D measurement
-
摘要: 在条纹投影等传统结构光三维测量技术中,在全局光照的干扰下,无法获得高质量、高精度的三维测量结果。典型的全局光照效应包括互反射和次表面散射。互反射发生在凹陷的光亮反射表面,而次表面散射发生在半透明材料表面。单像素成像(Single-pixel imaging, SI)技术可以通过没有空间分辨率的探测器捕获场景,然而,大多数现代数码相机采用传统像素化的图像传感器。在这里,我们提出了将单像素成像技术扩展到像素化的图像传感器中,将图像传感器上的每个像素都被视为是一个独立的单像素成像单元,可以同时获取图像。实验表明,这种单像素成像方法可以完全分解直接光照和全局光照,实现在全局光照干扰下的高质量、高精度三维重建。Abstract: Traditional optical 3D shape measurement methods, such as Fringe projection techniques, cannot acquire high-quality and high-accuracy 3D measurement results in the presence of global illumination. Typical global illumination effects contain interreflections and subsurface scattering. Interreflections occur in concave surfaces with glossy reflection, and subsurface scattering occurs in translucent materials. Single-pixel imaging (SI) techniques can capture a scene through a detector with no spatial resolution. However, traditional pixelated imaging sensors are commonly adopted in most modern digital cameras. Here, we extended SI to pixelated imaging sensors, in which every pixel on an imaging sensor was considered an independent unit that can simultaneously obtain an image. Our experiments show that the SI can completely decompose direct and global illumination. Furthermore, high-quality and high-accuracy 3D profile in the presence of global illumination can be reconstructed.
-
Key words:
- single-pixel imaging /
- interreflections /
- subsurface scattering /
- 3D measurement
-
4 混合场景单像素成像结果;(a)拍摄场景;(b)小熊腹部处某点的单像素重构结果;(c)洋葱某点的单像素重构结果;(d)冬瓜某点的单像素重构结果;(e)涡轮叶片上某点的单像素重构结果;(f)涡轮叶片另一点的单像素重构结果;(g)金属零部件某点的单像素重构结果
4. The reconstructed images of single pixel imaging method for the compound scenes; (a) the measured scenes; (b) reconstructed single-pixel imaging result of a point on the abdomen of the bear; (c) reconstructed single-pixel imaging result of a point on the onion; (d) reconstructed single-pixel imaging result of a point on the white gourd; (e) reconstructed single-pixel imaging result of a point on the turbine blade; (f) reconstructed single-pixel imaging result of the second point on the turbine blade; (g) reconstruction single-pixel imaging result of a point on the metal parts
图 5 混合场景三维重建结果;(a)场景的三维重建结果;(b)小熊腹部的局部放大;(c)洋葱区域的局部放大;(d)冬瓜区域的局部放大;(e)小熊爪子和涡轮叶片处的局部放大;(f)涡轮叶片的局部放大;(g)金属零部件的局部放大
Figure 5. 3D reconstruction results of the compound scene; (a) 3D reconstruction results of the scene; (b) enlarged abdomen region of the bear; (c) enlarged area of the onion; (d) enlarged area of the white gourd; (e) enlarged bear claw and turbine blade region; (f) enlarged region of the turbine blade; (g) enlarged region of the metal parts
图 8 半透明测量物体精度评价;(a)尼龙球三维重建结果;(b)尼龙球重建差图;(c)玉马三维重建结果;(d)玉马重建误差图
Figure 8. Accuracy evaluation of translucent measured objects; (a) 3D reconstruction result of polyamide sphere; (b) reconstruction deviations of polyamide sphere; (c) 3D reconstruction result of jade horse; (d) reconstruction deviations of jade horse
表 1 测量精度评价
Table 1. Accuracy evaluation of the measured results
Measured objects Fitted diameter /mm Mean absolute error /mm Root mean square error /mm Polyamide sphere 25.408 0.020 0.026 Jade horse 0.049 0.059 -
[1] Chen F, Brown G M, Song M. Overview of three-dimensional shape measurement using optical methods [J]. Optical Engineering, 2000, 39(1): 10−22. doi: 10.1117/1.602438 [2] Nayar S K, Ikeuchi K, Kanade T. Shape from interreflections [J]. International Journal of Computer Vision, 1991, 6(3): 173−195. doi: 10.1007/BF00115695 [3] Zhang Z, Ma X, Zhong J. Single-pixel imaging by means of Fourier spectrum acquisition [J]. Nature Communications, 2015, 6: 6225. doi: 10.1038/ncomms7225 [4] Zhao H, Xu Y, Jiang H, et al. 3D shape measurement in the presence of strong interreflections by epipolar imaging and regional fringe projection [J]. Optics Express, 2018, 26(6): 7117−7131. doi: 10.1364/OE.26.007117 [5] Xu Y, Zhao H, Jiang H, et al. High-accuracy 3D shape measurement of translucent objects by fringe projection profilometry [J]. Optics Express, 2019, 27(13): 15118−15130. [6] Nayar S K, Krishnan G, Grossberg M D, et al. Fast separation of direct and global components of a scene using high frequency illumination [J]. ACM Transactions on Graphics, 2006, 25(3): 935−944. doi: 10.1145/1141911.1141977 [7] Gupta M, Nayar S K. Micro phase shifting[C]//IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2012: 813-820. [8] Wang J, Zhang X. 3D measurement method of Gray code structured light under interference of reflected light [J]. Optical Technique, 2018, 44(1): 69−74. (in Chinese) [9] Chen T, Lensch H P A, Fuchs C, et al. Polarization and phase-shifting for 3D scanning of translucent objects[C]//IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2007: 1-8. [10] Sen P, Chen B, Garg G, et al. Dual photography[C]//ACM SIGGRAPH, ACM, 2005: 745-755. [11] Zhang Z, Wang X, Zheng G, et al. Hadamard single-pixel imaging versus Fourier single-pixel imaging [J]. Optics Express, 2017, 25(16): 19619−19639. doi: 10.1364/OE.25.019619 [12] Edgar M P, Gibson G M, Padgett M J. Principles and prospects for single-pixel imaging [J]. Nature Photonics, 2019, 13: 13−20. doi: 10.1038/s41566-018-0300-7 [13] Bian L, Suo J, Situ G, et al. Multispectral imaging using a single bucket detector [J]. Scientific Reports, 2016, 6(24752): 1−7. [14] Hahn J, Debes C, Leigsnering M, et al. Compressive sensing and adaptive direct sampling in hyperspectral imaging [J]. Digital Signal Processing, 2014(26): 113−126. [15] Wang Y, Suo J, Fan J, et al. Hyperspectral computational ghost imaging via temporal multiplexing [J]. IEEE Photonics Technology Letters, 2016(28): 288−291. [16] Radwell N, Mitchell K J, Gibson G M, et al. Single-pixel infrared and visible microscope [J]. Optica, 2014, 1(5): 285−289. doi: 10.1364/OPTICA.1.000285 [17] Chan W L, Charan K, Takhar D, et al. A single-pixel terahertz imaging system based on compressed sensing [J]. Applied Physics Letter, 2008, 93(12): 121105. doi: 10.1063/1.2989126 [18] Watts C M, Shrekenhamer D, Montoya J, et al. Terahertz compressive imaging with metamaterial spatial light modulators [J]. Nature Photonics, 2014, 8: 605−609. doi: 10.1038/nphoton.2014.139 [19] Sun B, Edgar M P, Bowman R, et al. 3D computational imaging with single-pixel detector [J]. Science, 2013, 340(6134): 844−847. doi: 10.1126/science.1234454 [20] Sun M, Edgar M, Gibson G, et al. Single-pixel three-dimensional imaging with time-based depth resolution [J]. Nature Communications, 2016, 7: 12010. doi: 10.1038/ncomms12010 [21] Ryczkowski P, Barbier M, Friberg A T, et al. Ghost imaging in the time domain [J]. Nature Photonics, 2016, 10: 167−170. doi: 10.1038/nphoton.2015.274 [22] Chen H, Weng Z, Liang Y, et al. High speed single-pixel imaging via time domain compressive sampling[C]//Conference on Lasers Electro-Opt, OSA, 2014: 132. [23] Devaux F, Moreau P A, Denis S, et al. Computational temporal ghost imaging [J]. Optica, 2016, 3(7): 698−701. doi: 10.1364/OPTICA.3.000698 [24] Jiang H, Zhai H, Xu Y, et al. 3D shape measurement of translucent objects based on Fourier single-pixel imaging in projector-camera system [J]. Optics Express, 2019, 27(23): 33564−33574. doi: 10.1364/OE.27.033564
计量
- 文章访问数: 1691
- HTML全文浏览量: 653
- 被引次数: 0