-
准直测量用鱼眼相机的标定装置如图3所示,该装置由高精度三轴转台和平行光管构成。其中,鱼眼相机安装在高精度三轴转台上,转台通过控制3个回转轴产生不同的转角模拟目标以不同的入射角度进入相机。平行光管则作为标定的点目标产生亮度均匀的模拟平行光。
-
在以极坐标形式采样之前,需要尽量通过试验的方法减小转台横滚轴与平行光管入射光轴间的不平行度。当上述两轴重合时,回转轴旋转一圈时入射光在图像传感器上所成圆环像的直径最小,此时发生的角度对应的位置点定义为重合点。这一步骤称为重合点的搜索,搜索方法如图4所示。
首先,根据相机的安装情况,确定理想的重合点位置$ \left(\begin{array}{cc}{\theta }_{PITCH-0},& {\theta }_{YAW-0}\end{array}\right) $,即认为转台在该点的方位角$ {\theta }_{YAW-0} $和俯仰角$ {\theta }_{PITCH-0} $示值下,绕横滚轴旋转一圈,相机的成像位置在一点不动。(但是,由于光轴与转台旋转轴存在安装误差,成像位置会构成一个圈)在理想重合点位置的基础上,估计出实际重合点轴线与理想轴线的最大夹角$ {\theta }_{MAX} $。基于此,对理想重合点以及其正四邻域距离为$ {\theta }_{MAX} $的一共5个点分别进行测试,测试这些位置处横滚轴转一圈成像位置形成的闭合圆或封闭曲线的平均直径的大小(为了简化起见,可用横滚角在0°、90°、180°、270°这4个数值的位置进行估计)。找出其中最小直径圆所对应的点,并以最小值对应的点作为中心,连同其正四邻域的点一并进行下一轮的估计。此时邻域的步长缩短为前一次的1/2。如此以往,直到前后两次搜索中曲线平均直径的变化率小于一定阈值,搜索结束。从而得到了真实的重合点位置$ \left(\begin{array}{cc}{\widehat{\theta }}_{PITCH-0},& {\widehat{\theta }}_{YAW-0}\end{array}\right) $。自此,认定在真实重合点位置处,转台横滚轴与入射平行光重合。
-
将第一步搜索到的重合点作为圆心,固定转台方位轴角度,控制转台俯仰轴生成等间隔的$ M $个径向夹角,在每个径向夹角下控制横滚轴绕360°一周等间隔生成$ N $个切向方位角,最终产生$ M\times N $个采样点集合。需要注意的是,采样过程中需要保持转台俯仰及横滚轴始终向同一方向运动以减小回程误差。详细采样点分布如图5所示。
-
同样地,将第一步搜索到的重合点位置作为零点,利用方位轴和俯仰轴分别在水平和垂直方向上形成等间隔的栅格采样点。采样时,转台横滚角保持0°不变,栅格点采样按照Z字形的顺序进行,以减少累积误差。详细采样点分布如图6所示。
-
径向标定是建立像素坐标$ (u,v) $与入射矢量的径向夹角及切向方位角$ (\theta ,\alpha ) $之间的映射关系。具体分为如下4个步骤:
1)主点的建立,对于标定中每一个转台俯仰角$ {\theta }_{PITCH-k},k\in M $情形下采集的整圈质心位置$ \left\{\left({u}_{jk},{v}_{jk}\right)\right\}, j\in [1,N] $进行对称中心$ \left({u}_{0 k},{v}_{ok}\right) $的求解。在整圈采样点为偶数的情况下,则可以简单地利用下式求解:
$$ \left({u}_{0k},{v}_{0k}\right)=\frac{1}{N}\sum _{j=1}^{N}\left({u}_{jk},{v}_{jk}\right) $$ (1) 进一步地,对于各圈的对称中心进行平均,得到主点的估计值:
$$ \left({u}_{0},{v}_{0}\right)=\frac{1}{M}\sum _{k=1}^{M}\left({u}_{0k},{v}_{0k}\right) $$ (2) 显然,由于相机光轴和转台横滚轴的安装误差,这个估计值并不准确,但这不妨碍计算的进一步进行。
2)平均径向距离与径向夹角关系的建立,在上一步的基础上,对于每圈采样点中每一个固定俯仰角$ {\theta }_{PITCH-k} $情形下采集的整圈质心位置$ \left\{\left({u}_{jk},{v}_{jk}\right)\right\}, j\in [1,N] $可以求解圈上各采样点对应的像素坐标与主点间的欧式距离:
$$d_{j k}=\left\|\left(u_{j k}-u_0, v_{j k}-v_0\right)\right\| $$ (3) 而对于每圈转台俯仰角$ {\theta }_{PITCH-k} $的平均径向距离为:
$$ {d}_{k}=\frac{1}{N}\sum _{j=1}^{N}{d}_{jk} $$ (4) 则据此可以利用三次样条插值建立平均径向距离与入射夹角正切值之间的映射关系为:
$$ \left({d}_{k}\sim \mathrm{t}\mathrm{a}\mathrm{n}{\theta }_{k}\right) $$ (5) 3)方位角平均偏差的确定,对于每一个成像位置$ \left({u}_{jk},{v}_{jk}\right) $可以通过下式求出其成像时的方位角:
$$ {\alpha }_{jk}=\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\left({u}_{jk},{v}_{jk}\right) $$ (6) 与此同时,转台横滚轴产生的方位角参考值为$ {\theta }_{ROLL-j} $,则成像位置方位角与参考值的平均偏差为:
$$ \Delta \overline{\alpha }=\sum _{k=1}^{M}\sum _{j=1}^{N}\left({\alpha }_{jk}-{\theta }_{ROLL-j}\right) $$ (7) 4)质心误差映射关系的建立。根据第2)至3)步骤可知,除各个采样点处少量的质心位置偏差外,基本满足径向距离与径向夹角的映射关系以及方位角的偏差约束。为此,通过上述关系算出没有质心位置偏差的情况下,不同标定点理论的成像位置 ,则可以建立标定点实际成像位置与理论成像位置修正量的映射关系:
$$ \left({u}_{jk},{v}_{jk}\right)\sim \left({\overline{u}}_{jk}-{u}_{jk},{\overline{v}}_{jk}-{v}_{jk}\right) $$ (8) -
栅格补偿,旨在消除标定过程中光轴指向与转台横滚轴指向不重合引起的系统误差,如图7所示。
图 7 光轴与横滚轴不重合示意
Figure 7. The indication that the optical axis does not coincide with the rolling axis
假定光轴在转台横滚轴建立的径向坐标系下的切向方位角为$ \alpha $,径向夹角为$ \theta $。由于光轴与转台回转轴不重合,故存在一个2自由度的旋转安装误差,该安装误差可以分解成为绕转台俯仰轴和方位轴的两个角度量$ {\theta }_{Y0} $和$ {\theta }_{X0} $。忽略方位角零位,计算出转台坐标系与相机坐标系间的旋转矩阵$ {R}_{ROT2 CAM} $:
$$ {R}_{ROT2CAM}={R}_{X}\left({\theta }_{X0}\right)\times{R}_{Y}\left({\theta }_{Y0}\right) $$ (9) 式中:$ {R}_{Y} $是绕转台俯仰轴的旋转矩阵;$ {R}_{X} $是绕转台方位轴的旋转矩阵。
根据已知入射矢量方向在转台极坐标系下的表示 $ (\theta ,\alpha ) $,可以得到该矢量方向在转台直角坐标系下的表示$ \mathit{v} $:
$$ \mathit{v}=\left(\begin{array}{c}\mathrm{sin}\theta \; \mathrm{cos}\alpha \\ \mathrm{sin}\theta \;\mathrm{sin}\alpha \\ \mathrm{cos}\theta \end{array}\right) $$ (10) 将其转换到相机坐标系下:
$$ {\mathit{v}}^{\mathit{{'}}}=\left(\begin{array}{c}\mathrm{sin}\theta {'} \; \mathrm{cos}\alpha {'}\\ \mathrm{sin}\theta {'}\;\mathrm{sin}\alpha {'}\\ \mathrm{cos}\theta {'}\end{array}\right) = {R}_{ROT2CAM}\times\mathit{v} $$ (11) 式中:$ {\alpha }{{'}},\theta {'} $分别是补偿安装误差后的切向方位角和径向夹角。
利用三角函数进一步可得:
$$ \left\{\begin{array}{c}{\theta }{'}=\arccos\left(\mathrm{c}\mathrm{o}\mathrm{s}{\theta }_{Y0}\mathrm{c}\mathrm{o}\mathrm{s}{\theta }_{X0}\mathrm{c}\mathrm{o}\mathrm{s}\theta -\mathrm{s}\mathrm{i}\mathrm{n}{\theta }_{X0}\mathrm{s}\mathrm{i}\mathrm{n}\theta \right)\\ {\alpha }{'}=\alpha +\arctan \left(\dfrac{\mathrm{c}\mathrm{o}\mathrm{s}{\theta }_{X0}\mathrm{s}\mathrm{i}\mathrm{n}\theta +\mathrm{c}\mathrm{o}\mathrm{s}{\theta }_{Y0}\mathrm{s}\mathrm{i}\mathrm{n}{\theta }_{X0}\mathrm{c}\mathrm{o}\mathrm{s}\theta }{-\mathrm{s}\mathrm{i}\mathrm{n}{\theta }_{X0}\mathrm{c}\mathrm{o}\mathrm{s}\theta }\right)\end{array}\right. $$ (12) 根据公式(12)及已知栅格标定点信息,可以对$ {\theta }_{Y0} $和$ {\theta }_{X0} $进行二维变步长搜索,直至找到精确的两轴安装误差角,搜索的损失函数可选用栅格标定点入射矢量解算的角距偏差的模之和。至此,利用栅格标定点得到了栅格补偿的解析关系$ \left(\theta {'},\alpha {'}\right)=f(\theta ,\alpha ) $。
总的标定流程如算法 1 所示。
算法1: 输入:转台三轴角度$ {\theta }_{YAW},{\theta }_{PITCH},{\theta }_{ROLL} $,相机像素坐标$ (u,v) $ 输出:补偿模型 步骤1:根据安装情况迭代变步长搜索标定重合点,使得转台回转轴与入射光轴平行。 步骤2:等角度间隔并以一定规律进行径向标定点的采集。 步骤3:等角度间隔并以一定规律进行栅格标定点的采集。 步骤4:利用三次样条曲线拟合出统一的径向模型,并使用欧式距离插值抑制切向误差以及相机的非对称性误差。 步骤5:依据栅格标定点并通过二维变步长搜索抑制转台回转轴与相机光轴不平行引入的系统误差。 算法1结束 -
根据径向标定的处理结果,通过已知成像点像素坐标$ ({u}_{p},{v}_{p}) $,先根据实际成像位置与理论成像像素坐标补偿量之间的映射关系,即公式(8),求得成像点经过径向标定补偿后的粗略像素坐标,随后根据公式(12)进行系统误差修正。补偿流程如算法2所示。
算法2: 输入:像素坐标$ ({u}_{p},{v}_{p}) $ 输出:入射矢量在相机坐标系下的表示$ {\mathit{v}}_{c} $ 步骤1:计算出成像点对应入射矢量的大致径向夹角以及切向方位角(公式(5)、(7)) 。 步骤2:搜索与之相邻两圈标定点的径向夹角。 步骤3:搜索与之相邻两个控制点的切向方位角。 步骤4:根据步骤2估计的两个径向夹角和步骤3确定的两个切向方位角,可以得到将成像点包围的4个控制点。 步骤5:计算得到该成像点的理论成像位置。并进一步地计算得到入射矢量的径向夹角和切向方位角(公式(5)、(7)、(8))。 步骤6:将步骤5得到的结果进行系统误差的修正,返回入射矢量在相机坐标系下的表示$ {\mathit{v}}_{c} $(公式(12))。 算法2结束 -
为了验证文中方法的有效性,文中首先构建多种虚拟模型并采用多种标定方法进行仿真实验,分析不同标定方法对于不同虚拟模型标定结果的精度指标。随后搭建真实的鱼眼相机进行标定,验证文中方法在实际应用中的标定效果。
-
首先根据4种经典鱼眼成像模型分别构建4种理想的鱼眼相机模型。随后在理想模型的基础上加入主点偏移、切向畸变、镜头非对称性等因素带来的干扰以模拟真实的鱼眼相机,对相机加入三轴旋转来模拟安装误差的影响。
生成的4种虚拟鱼眼相机参数如表1所示,视场之所以设置为160°是因为正交投影的视场角不能超过180°
由于准直测量这一应用场景与计算机视觉、增强现实等的区别较大,因此,并未采用传统的PSNR、SSIM等指标来对比标定方法的有效性及精度,而是采用了MRE进行对比。
表 1 虚拟鱼眼相机模型参数
Table 1. Model parameters of virtual fisheye camera
Reference projection relationship Equidistance projection Equisolid projection Stereographic projection Orthogonal projection FOV 160° 160° 160° 160° Focal length 3.82 4.11 4.06 3.94 Image size/pixel 2 048(H)
2 048(V)2 048(H)
2 048(V)2 048(H)
2 048(V)2 048(H)
2 048(V)Principal point coordinate 1015.33(H)
992.64(V)1037.58(H)
1019.23(V)1023.04(H)
1023.59(V)1020.98(H)
1029.30(V)First order tangential distortion parameter $ 6.37\times 1{0}^{-5} $ $ 3.64\times 1{0}^{-5} $ $ -2.71\times 1{0}^{-5} $ $ 4.19\times 1{0}^{-5} $ Second order tangential distortion parameter $ 4.49\times 1{0}^{-6} $ $ -1.54\times 1{0}^{-5} $ $ 9.44\times 1{0}^{-6} $ $ 1.02\times 1{0}^{-5} $ 将文中方法于其他3种不同的标定方法[2,7-8]用于生成的4种虚拟鱼眼相机模型,并使用若干组坐标已知的参考物-像点对验证这些标定方法(每种相机模型各1600组)。针对同一种模型生成的参考物-像点对,分别计算每种标定方法对应于该种虚拟鱼眼相机模型的平均重投影误差,重复上述流程直至4种相机模型全部完成计算。对比结果如图8所示。
分析图8中的标定结果, Brousseau等人的方法对于前述4种虚拟相机的标定的重投影误差最大不高于0.071 pixel,效果较好。但是由于使用了视场拼接技术,多个视场重合部分的合并映射过程会引入较大误差,特别是在重合部分区域更靠近边缘视场的情况下会产生更大的误差;就基于等距投影模型的虚拟相机而言,Feng等人的方法在其上的标定结果优于文中方法,是因为该方法是基于理想的等距投影模型提出的,也正因为此,该方法在其他3种虚拟相机模型下的标定重投影误差较文中方法均至少增加19.27%;Cai等人的方法在拍摄条纹图像的过程中,由于使用的是平面显示器,导致条纹图像不能完全覆盖全部视场,尤其无法覆盖边缘视场。并且,鱼眼相机的畸变程度随着像点靠近视场边缘而逐渐加剧,畸变程度越深对标定结果的影响越剧烈。最终导致边缘视场的重投影误差较大,从而降低全视场的整体标定精度;文中方法保证了全视场范围标定的连贯性,因此文中方法在4种不同的虚拟鱼眼相机的标定上的平均重投影误差均能保持在0.06 pixel以下。
-
制作了一个基于嵌入式平台的鱼眼相机用以验证我们的标定方法,该鱼眼相机的具体参数如表2所示。
表 2 鱼眼相机参数
Table 2. Parameters of fisheye camera
Processor XC7Z035 Image sensor GSENSE2020BSI Image format 12 bit gray Image size/pixel ${2\;048}\left({H}\right)\times {2\;048}\left({ { {V} } }\right)$ Pixel size $6.5\;\text{μ}\text{m}\times 6.5\;\text{μ}\text{m}$ Lens FOV 210° Equivalent focal length $\text{4 mm }$ Camera FOV $\text{18}{\text{0} }^{\circ }\left({H}\right)\times \text{18}{\text{0} }^{\circ }\left({V}\right)$ 首先尝试采用4种经典鱼眼相机模型对真实鱼眼相机进行标定,以2°作为径向步长,4°为切向步长进行径向标定点的采集,径向标定点的采集覆盖180°范围的圆周视场。标定结果如图9所示。
图 9 经典模型标定误差分布。(a)立体视角投影模型标定误差分布;(b) 正交投影模型标定误差分布;(c) 等立体角投影模型标定误差分布;(d)等距投影模型标定误差分布
Figure 9. Calibration error distribution of 4 classical camera model. (a) Stereographic projection model calibration error distribution; (b) Orthogonal projection model calibration error distribution; (c) Equisolid projection model calibration error distribution; (d) Equidistance projection model calibration error distribution
从图9可以看出,文中使用的真实鱼眼相机的投影模型与等立体角投影模型近似,但是并未完全遵循该投影模型,因此标定结果存在低频误差,并且由于镜片加工和装调等不确定因素,导致整体误差分布并不关于中心对称。另外,图像中心区域也存在不小的标定误差,经过分析,可能是由于标定点采集过程中3个标定轴向两两之间相互不重合所导致。从整体上看,标定结果的径向误差随着视场角的增加存在着增大的趋势,这是由于鱼眼相机的畸变随着视场角的增加逐渐剧烈。因此,径向重投影误差是鱼眼相机标定中最主要的误差源。
随后采用文中提出的方法流程进行标定,将鱼眼相机安装在高精度三轴转台上,首先根据2.1小节所描述的方法进行重合点的搜索。随后以搜索到的重合点作为径向标定原点,并按照2.2小节描述的方法以2°作为径向步长,4°为切向步长进行径向标定点的采集,径向标定点的采集覆盖180°范围的圆周视场。之后同样以搜索到的重合点为中心作为栅格标定原点,按照2.3小节描述的方法以1°为水平和垂直步长进行栅格标定点的采集。栅格标定点的采集覆盖30°范围的方形中心视场。最终标定结果如图10所示。
图10为重投影误差的分布图。使用文中方法标定的鱼眼相机模型,其重投影误差最大值为0.16 pixel,最小值为0.05 pixel,误差分布均匀,精度较高。将重投影误差换算成矢量解算误差,此次标定的最大误差为0.0162°,平均误差为0.0121°,这说明了文中提出的准直测量用鱼眼相机标定方法的有效性。
为了进一步验证文中方法的有效性,使用标定完成的样机进行了外场实验,如图11所示。首先拍摄太阳并解算太阳矢量在地固坐标系下的表示以获得太阳观测矢量,然后利用Stellarium软件得到拍摄时刻当地坐标下太阳的真实俯仰角和方位角并计算出太阳参考矢量,最后对观测矢量和参考矢量进行比较可以计算出矢量解算误差。经过不同时刻的多次测量,样机的平均矢量解算误差为0.0152°。
Calibration method of fisheye camera for high-precision collimation measurement
-
摘要: 为了扩展准直测量的应用领域,提高测量范围是最为有效的手段之一,因此用于准直测量的鱼眼相机应运而生。针对准直测量用鱼眼相机标定精度不高的问题,提出了一种基于插值形式的径向粗标定及基于栅格形式的补偿精标定的两步式准直测量用鱼眼相机标定方法。该方法使用插值而并非构建成像模型,能够有效避免模型不准确及参数设置不合理而引入的系统误差,并且可以在一定程度上抑制镜片加工的非对称性及光学系统装调所带来的偏差。区别于图像评价的峰值信噪比(PSNR)以及结构相似性(SSIM)等性能指标,该方法选择的平均重投影误差(MRE)这一指标能够更有效地衡量准直测量使用条件下相机标定结果的优劣。仿真对比实验结果表明该方法在4种虚拟鱼眼相机模型上的标定效果皆优于传统标定方法,与传统的方法相比,标定的不确定度最大能够改善82.63%。样机标定实验结果表明,该方法能够有效标定真实的准直测量用鱼眼相机,在搭建的真实样机上应用该标定方法后,样机的入射矢量解算的不确定度能够提升至角秒级。Abstract:
Objective Collimation measurement is one of the most widely used precision angle measurement and attitude measurement methods. By imaging the known reference target at infinity, the accurate angular relationship between the measured object and the reference target can be obtained. The measurement results have the advantages of high accuracy and high repeatability. Photoelectric autocollimator, electronic total station, theodolite and other measuring and calibration instruments all take collimation measurement as their main measurement principle. Due to the limitation of the calibration accuracy of the large-field-of-view and high-distortion optical system, the camera field of view used in precision collimation measurement is usually small, so there are great limitations in the application of large range angle measurement. Fisheye camera has the advantages of large field of view, small volume and light weight, so it should have a broad development prospect in the field of measurement and calibration. However, due to the large field of view and large distortion of the fisheye camera, there is a complex nonlinearity in the camera imaging process, and the asymmetry in lens processing has a more severe impact on the imaging model parameters. For this reason, a fisheye camera calibration method for high precision collimation measurement is proposed in this paper. Methods A two-step fisheye camera calibration method for collimation measurement is proposed in this paper, which includes radial rough calibration based on interpolation and fine calibration based on grid compensation. This method uses interpolation instead of constructing camera model, which can effectively avoid the system error caused by inaccurate model and unreasonable parameter setting, and can restrain the asymmetry of lens processing and the deviation caused by optical system adjustment to a certain extent. Different from the commonly used performance indicators such as peak signal-to-noise ratio (PSNR) and structural similarity (SSIM), the mean reprojection error (MRE) selected in this paper can more effectively measure the camera calibration results under the condition of collimation measurement. Results and Discussions According to the classical model of fisheye camera, four different virtual fisheye cameras are constructed for simulation experiments (Tab.1). The simulation result shows that the calibration effect of this method on the four virtual fisheye camera models is better than the calibration method proposed recently (Fig.8), and the calibration uncertainty can be increased by 82.63% compared with the traditional method. Then, a fisheye camera calibration prototype based on embedded platform is designed (Tab.2). The calibration experimental results of the prototype shows that the proposed method can effectively calibrate the real fisheye camera for collimation measurement (Fig.10). After the calibration method is applied to the real prototype built in this paper, the uncertainty of the solution of the incident vector of the prototype can be raised to arcseconds (Fig.11). Conclusions A fisheye camera calibration method for high-precision collimation measurement is proposed. In the method, calibration process of fisheye camera for collimation measurement is divided into two parts of radial calibration and grid calibration. Firstly, two kinds of calibration sample points are collected with the help of high-precision turntable and collimator. Then the rough construction of the imaging model is completed by radial calibration. Finally, grid calibration is used to eliminate the error caused by the non-coincidence of rotation axis and optical axis in radial calibration, and further improve the calibration accuracy. Through simulation comparison experiments and prototype verification experiments, it is proved that this method has high calibration accuracy. Moreover, this method can be applied to the high-precision calibration of all kinds of real fisheye cameras for collimation measurement, and can provide technical support for the development of collimation measurement in the future. -
Key words:
- collimation measurement /
- fisheye camera /
- calibration /
- distortion correction
-
图 9 经典模型标定误差分布。(a)立体视角投影模型标定误差分布;(b) 正交投影模型标定误差分布;(c) 等立体角投影模型标定误差分布;(d)等距投影模型标定误差分布
Figure 9. Calibration error distribution of 4 classical camera model. (a) Stereographic projection model calibration error distribution; (b) Orthogonal projection model calibration error distribution; (c) Equisolid projection model calibration error distribution; (d) Equidistance projection model calibration error distribution
算法1: 输入:转台三轴角度$ {\theta }_{YAW},{\theta }_{PITCH},{\theta }_{ROLL} $,相机像素坐标$ (u,v) $ 输出:补偿模型 步骤1:根据安装情况迭代变步长搜索标定重合点,使得转台回转轴与入射光轴平行。 步骤2:等角度间隔并以一定规律进行径向标定点的采集。 步骤3:等角度间隔并以一定规律进行栅格标定点的采集。 步骤4:利用三次样条曲线拟合出统一的径向模型,并使用欧式距离插值抑制切向误差以及相机的非对称性误差。 步骤5:依据栅格标定点并通过二维变步长搜索抑制转台回转轴与相机光轴不平行引入的系统误差。 算法1结束 算法2: 输入:像素坐标$ ({u}_{p},{v}_{p}) $ 输出:入射矢量在相机坐标系下的表示$ {\mathit{v}}_{c} $ 步骤1:计算出成像点对应入射矢量的大致径向夹角以及切向方位角(公式(5)、(7)) 。 步骤2:搜索与之相邻两圈标定点的径向夹角。 步骤3:搜索与之相邻两个控制点的切向方位角。 步骤4:根据步骤2估计的两个径向夹角和步骤3确定的两个切向方位角,可以得到将成像点包围的4个控制点。 步骤5:计算得到该成像点的理论成像位置。并进一步地计算得到入射矢量的径向夹角和切向方位角(公式(5)、(7)、(8))。 步骤6:将步骤5得到的结果进行系统误差的修正,返回入射矢量在相机坐标系下的表示$ {\mathit{v}}_{c} $(公式(12))。 算法2结束 表 1 虚拟鱼眼相机模型参数
Table 1. Model parameters of virtual fisheye camera
Reference projection relationship Equidistance projection Equisolid projection Stereographic projection Orthogonal projection FOV 160° 160° 160° 160° Focal length 3.82 4.11 4.06 3.94 Image size/pixel 2 048(H)
2 048(V)2 048(H)
2 048(V)2 048(H)
2 048(V)2 048(H)
2 048(V)Principal point coordinate 1015.33(H)
992.64(V)1037.58(H)
1019.23(V)1023.04(H)
1023.59(V)1020.98(H)
1029.30(V)First order tangential distortion parameter $ 6.37\times 1{0}^{-5} $ $ 3.64\times 1{0}^{-5} $ $ -2.71\times 1{0}^{-5} $ $ 4.19\times 1{0}^{-5} $ Second order tangential distortion parameter $ 4.49\times 1{0}^{-6} $ $ -1.54\times 1{0}^{-5} $ $ 9.44\times 1{0}^{-6} $ $ 1.02\times 1{0}^{-5} $ 表 2 鱼眼相机参数
Table 2. Parameters of fisheye camera
Processor XC7Z035 Image sensor GSENSE2020BSI Image format 12 bit gray Image size/pixel ${2\;048}\left({H}\right)\times {2\;048}\left({ { {V} } }\right)$ Pixel size $6.5\;\text{μ}\text{m}\times 6.5\;\text{μ}\text{m}$ Lens FOV 210° Equivalent focal length $\text{4 mm }$ Camera FOV $\text{18}{\text{0} }^{\circ }\left({H}\right)\times \text{18}{\text{0} }^{\circ }\left({V}\right)$ -
[1] Chen Wenyi, Xu Jie, Yang Hui. Camera calibration method based on double neural network [J]. Infrared and Laser Engineering, 2021, 50(11): 20210071. (in Chinese) doi: 10.3788/IRLA20210071 [2] Yang S R, Lin C Y, Liao K, et al. FishFormer: Annulus slicing-based transformer for fisheye rectification with efficacy domain exploration [DB/OL]. (2023-07-05) [2023-08-01].https://arxiv.org/abs/2207.01925 . [3] Rong J P, Huang S Y, Shang Z Y, et al. Radial lens distortion correction using convolutional neural networks trained with synthesized images [C]//Asian Conference on Computer Vision (ACCV), 2016: 35–49. [4] Chao C H, Hsu P L, Lee H Y, et al. Self-supervised deep learning for fisheye image rectification [C]//International Conference on Acoustics, Speech, and Signal Processing (ICASSP), 2020: 2248–2225. [5] Camposeco F, Sattler T, Pollefeys M. Non-parametric structure-based calibration of radially symmetric cameras [C]// International Conference on Computer Vision (ICCV), 2015: 2192-2200. [6] Ramalingam S, Sturm P. A unifying model for camera calibration [J]. Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(7): 1309-1319. doi: 10.1109/TPAMI.2016.2592904 [7] Wei Boyan, Tian Qingguo, Ge Baozhen. Camera calibration based on color-coded phase-shifted fringe [J]. Opto-Electronic Engineering, 2021, 48(1): 200118. [8] Tezaur R, Kumara, Nestares O. A new non-central model for fisheye calibration [C]//Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2022: 5218-5127. [9] Cai C T, Qiao R J. An improved calibration method for stereo fisheye vision [C]//Chinese Control and Decision Conference (CCDC), 2021: 3158-3162. [10] López-Antequera M, Marí R, Gargallo P, et al. Deep single image camera calibration with radial distortion [C]//Conference on Computer Vision and Pattern Recognition (CVPR), 2019: 11809-11817. [11] Ao Naixiang, Li Hao, Wang Deyong. ICP and -regression based fisheye calibration estimation l1 [J]. Journal of CAEIT, 2017, 12(1): 67-72, 110. [12] Feng Weijia, Zhang Baofeng, Cao Zuoliang. Omni-directional vision parameter calibration and rectification based on fish-eye lens [J]. Journal of Tianjin University (Science and Technology), 2011, 44(5): 417-424. [13] Xue Z C, Xue N, Xia G S, et al. Learning to calibrate straight lines for fisheye image rectification [C]//Computer Vision and Pattern Recognition (CVPR), 2019: 1643-1651. [14] Yin X Q, Wang X C, Yu, J, et al. FishEyeRecNet: A multi-context collaborative deep network for fisheye image rectification [C]//European Conference on Computer Vision (ECCV), 2018: 11214. [15] Li W H, Qu Y, Wang Y, et al. Robust distortion estimation of fisheye cameras under stereographic projection model [C]// Intelligent Systems and Knowledge Engineering (ISKE), 2019:1017-1024. [16] Wakai N, Sato S, Ishii Y, et al. Rethinking generic camera models for deep single image camera calibration to recover rotation and fisheye distortion [C]//European Conference on Computer Vision (ECCV), 2022: 13678. [17] Cai J, Yang K, Cheng L, et al. Pixel-wise fisheye image correction method with single-view phase target [J]. Photonics Technology Letters, 2022, 34(19): 1038-1041. doi: 10.1109/LPT.2022.3199616 [18] Brousseau P A, Roy S. Calibration of axial fisheye cameras through generic virtual central models [C]//International Conference on Computer Vision (ICCV), 2019: 4039-4047.