APP下载

基于光场图像序列的自适应权值块匹配深度估计算法①

2020-04-24公冶佳楠

计算机系统应用 2020年4期
关键词:光场斜率像素

公冶佳楠,李 轲

1(中北大学 仪器与电子学院,太原 030051)

2(中北大学 信息探测与处理山西省重点实验室,太原 030051)

引言

光场是指空间中每一个点通过各个方向的光量,是包含了光的位置和方向信息的四维光辐射场的参数化表示[1,2],通常用一组在空间中稠密采样的图像序列表示,称为光场图像.光场图像可以通过相机阵列[3]、非结构化方法[4]和孔径编码成像[5]进行获取,相比于传统的2D 成像方式,其多出了位置和方向信息2 个自由度,这在计算成像中有很广的应用[6].基于光场图像信息的深度重建是指从获取的光场序列图像中提取有用的深度信息,且这些信息包含了丰富的位置和方向信息,所以在处理图像亮度变化较大和弱纹理区域可以得到很好的重建效果,尤其是在光场图像的深度估计中[7].

深度图像估计的准确性是深度重建的基础,在光场中,较多的光场视图数量对于获得准确和稠密深度图仍是一个很大的挑战.为了得到准确和可靠的深度图,许多具有代表性的方法已被采用.传统的立体匹配是一个很重要的研究方向[8],通过两幅图或者是多幅图之间像素点的对应关系,获得场景的深度信息,但这些方法在处理弱纹理区和有遮挡区,效果很差,鲁棒性低[9].Bolles 等人[10]提出了极平面图像(ExtremePlane Image,EPI)的概念,根据EPI 的线性特点,拟合直线后计算斜率达到估计深度的目的,得到了较好的深度图.Criminisi 等[11]采用分层思想,利用迭代优化方法将EPI 分成不同深度的EPI-tube,通过对3D 光场的反射特性进行分类,可以去除EPI-tube 中由镜面反射造成的影响,得到较好的效果,但是其算法的复杂度较高,比较费时.Kim 等[12]提出由精到粗的深度扩散方法:首先根据边缘置信度,计算场景的边缘轮廓信息;再依次通过降采样来计算轮廓内部的深度,但是对于较小视差的估计,精确度比较低.丁伟利[13]等提出了一种改进的Kim算法进行视差的估计:采用交叉检测模型检测边缘进行视差的估计,引入了权值的计算,但其算法没有解决较小视差估计不精确的问题.Wanner 等[14-16]提出了结构张量的方法获取EPI 中的斜率进而求得视差,采用全局优化的方法将结果整合到深度图中,结果虽然较为平滑,但是边缘信息丢失严重.Tao 等人[17]提出了一种同时结合散焦和对应深度融合的方法估计深度,根据在不同焦栈处的模糊程度,来得到其对应的深度,然而,对于离主透镜焦平面比较远的区域,深度估计误差较大.

针对上述问题,本文提出了一种改进的基于CIELab颜色空间、梯度和距离的自适应权值块匹配深度估计方法.本文算法有3 个贡献点:1)将块匹配应用到EPI 域中,根据EPI 的线性特点进行光场图像序列的块匹配.2)在匹配中,先将图像由RGB 颜色空间转到CIELab 颜色空间,计算EPI 集中匹配块和待匹配块中的每个像素的对于中心像素的相似性.3)采用梯度和距离作为平滑项,计算块中每个像素对于中心像素的权值,结合CIELab 颜色空间的权重值进行综合权重值计算,之后计算参考图像和各视角图像中块的匹配成本值,比较不同斜率下的成本值大小,确定最小成本和对应的最优斜率,得到最佳的深度图.

1 光场获取及EPI 深度估计

1.1 光场获取

本文采用相机沿直线运动的方式得到一系列的光场图像,如图1(a).由于相机直线运动,因此这些图像对应的相机光心在同一直线上,假设为 Ls,获取的光场图像的平面我们假设为 Πus,因此我们可以将获得的3D 光场,如下表述:

式中,E (u,v,s)表 示空间中一点通过位置( u,v,s)的光线的亮度.这里用CIELab 颜色空间中L,a,b 三通道的值表示.

图1(a)是获取的光场图像序列,我们展示了一组光场图像中其中的4 张图像.将得到的光场序列图像按顺序叠加起来,组成一个三维立体的合集,如图1(b),称为EPI 集.其中中间的横向切片表示具有线性特点像素的集合,即为单个EPI.

图1(b)中,随着时间的推移,相机沿着箭头的方向移动,使目标物点 p会在光场序列图像的不同位置出现,因此光场图像记录了目标物点 p在不同视角下的信息.在形成的EPI 中,目标物点 p在不同视角下的成像点分别为a,b,c 三点,其在EPI 中为一条斜线abc.

图1(c)表示由多个目标物点形成的具有线性特点的EPI 图.

1.2 光场深度估计

对于三维空间中的一点 p(x,y,z),如图2(a)所示,假设它在图像序列中同一行v∗的 投影分别为{ p1,p2,···,pn},相机对应的光心可以表示为 { c1,c2,···,cn}其中相机光心之间的距离均是∆ s,那么点 p在相邻两幅图像之间均有相等的视差 ∆ u=pi+1-pi,p点的深度z 可通过三角测量原理求得,公式如下:

图1 EPI 形成

图2 三维空间中一点 p 在EPI 中投影点的斜率

式中,f 为相机的焦距.由 p点在各个相机中的投影{p1,p2,···,pn} 组 成了EPI 上斜率为的直线lp,如图2(b),直线的斜率与直线上 p点的深度成正比关系.因此,我们计算场景点 p的深度可以转换成求EPI 中直线的斜率.

2 自适应权值算法

在斜率求解过程中,受光照和噪声等因素的影响,单个像素点之间匹配求斜率时误差较大,本文采用基于自适应权值块匹配的方法来计算斜率.

匹配块是以各视角图像中待匹配像素点为中心像素的 5 ×5像素块,因此基于像素点求斜率可以转换成基于像素块匹配求斜率.计算不同斜率下参考图像中的匹配块和各视角下目标图像中的待匹配块之间的成本值,成本值最小时对应的斜率值最优.

2.1 CIELab 颜色空间

CIELab 颜色空间是由CIE(国际照明委员)于1976年制定的一种色彩模式,它由亮度L(Luminance)和色度信息(a,b)组成.CIELab 颜色空间采用坐标Lab,其中a 的正向代表红色,负向代表绿色,b 的正向代表黄色,负向代表蓝色.CIELab 颜色空间对于色彩有较强的感知力,其中L 分量可以密切匹配亮度感知,因此可以通过修改a 和b 的分量来感知颜色的相似程度,由RGB 颜色空间转换到CIELab 颜色空间的公式如下:

由XYZ 颜色空间转换转换到Lab 颜色空间,表示如下:

其中,f(X)=7.787X+0.138 ,X ≤0.008 856 ,f(X)=X >0.008 856.式中由于CIELab 颜色空间不包含人类感知的所有颜色,而XYZ 颜色空间几乎包含所有感知的颜色,所有先将RGB 颜色空间转换到XYZ 颜色空间,如式(3)至式(5)所示,再转换到CIELab 颜色空间,如式(6)所示.

2.2 基于CIELab 颜色空间自适应权值算法

在块匹配中,匹配窗中像素的权值由3 个因素决定:梯度、CIELab 颜色空间中颜色差异和距离.匹配窗中的某一像素离中心像素越近,颜色差异越小,梯度差异越小,则该像素的权值越大.设参考图像中匹配窗的中心像素为 P0,窗内任一像素为 P,如图3 所示,则像素 P的权值可以表示为:

图3 自适应权值算法示意图

式 中,rs,rg和τgra为 常 数;则分 别为像素和中心像素之间的CIELab 颜色,距离和梯度差异,可如下表示:

其中,∆ graxp0p为匹配窗中像素和像素的水平梯度差异,∆ grayp0p为 匹配窗中像素和像素的垂直梯度差异,如下所示:

综上所述,可如下表示:

设像素qod为目标图像上与参考图像中像素 p0可能的匹配像素,像素 qd为 参考图像中qod对应的匹配窗中的像素,像素 p为参考图像中 p0对应的匹配窗的像素,则 p0和qod之间的差异表示如下:

综上所述,最终的视差值可以通过WTA算法得到:

其中,D ={dmin,···,dmax}为所有可能视差的集合,即不同斜率的集合.

3 实验结果与分析

本文算法基于文献[12]提供的数据集和斯坦福数据集进行测试.为了验证本文算法的性能,本文结果同时与文献[12,16]提供的流行深度估计算法进行比较,从定性和定量两个方面来分析算法的估计结果.在Windows 7 操作系统下,Intel Core(TM)i7-2600 2.6 GHz CPU 以及Matlab R2015b 的仿真软件下进行验证.

在定量分析中,采用均方根误差(RMSE)和相对深度误差(B)作为量化指标评价算法性能,其中RMSE和B 值越小,表示深度估计结果越好.

其中,M,N 表示图像的宽和高,表示实验获取的深度估计值,表示深度图真值.δd表示相对深度允许的误差,本文实验中取值为0.3.

3.1 定性分析

图4 展示了文献[12]、文献[16]与本文方法深度估计结果,可以发现,本文算法在很好的保留图像边缘信息的同时对于平滑区域也保留了更多的细节信息,如图4(d)中黑色边框所示,较好的展示了娃娃脖子区域的细节,而文献[12]的方法虽然娃娃边缘获得了较好的效果,但是对于娃娃脖子区域的细节没有展现.文献[16]方法,在娃娃边缘上表现的结果较差.

图4 深度估计实验结果图

图5 是各种深度估计方法求得的深度图,通过对比可以发现,本文算法和文献[12]算法一样都可以得到较好的深度图,但是对于一些微小细节,如图5(d)中白色边框中的教堂塔尖,本文算法能够很好的展现.文本算法在房子和前排植物等平滑区域展现了较好的灰度平缓变化,即深度的平缓变化过程,如图5(d)中黑色边框所示,而文献[16]算法表现的结果较差.

图6 中,本文算法与文献[12,16]算法均实现了较好的边缘深度估计,但在平滑区域本文算法较文献[12,16]算法能够显示更多的细节信息,如图6(d)中白色边框所示,通过灰度值的变化显示物体不同深度的变化,而文献[12,16]算法表现的结果图较差.

图5 深度估计实验结果图

图6 深度估计实验结果图

3.2 定量分析

根据给定的数据集深度图真值,可以进行定量分析.表1 给出了文献[12]、文献[16]以及本文算法的深度估计结果评价指标.可以看出,本文方法和文献[12]方法在边缘保存效果明显优于文献[16],所以均方根误差与相对深度误差值较小.本文方法在一些微小表现细节方面比文献[12]方法更具有一定的优势,因此实验数值更小,与本文中定性评价结果一致.

表1 各方法定量指标

另外,本文算法对于图像平滑区域的细节信息和边缘信息有较好的保持,获得了较好的深度图.同时由于本算法支持基于图像中多个匹配块的并行化计算,算法运行时间大大缩短,对比文献[12,16]的方法,如表2所示,本文算法的时间复杂度明显降低,更适合于快速深度估计.

表2算法运行时间(单位:s)

4 结论

相比传统的深度估计算法,本文提出了一种基于CIELab 颜色空间的自适应权值块匹配算法.本算法是在EPI 上利用其线性特点进行匹配,通过线性匹配求得最优斜率并确定最佳深度.在线性匹配的过程中,应用基于CIELab 颜色空间的自适应权值算法,求得匹配窗和待匹配窗的权值,进而通过WTA算法,确定最优斜率,并求得深度.通过对比深度图可以发现,本文算法不仅能够有效的保留边缘信息,同时对于内部的平滑区域,也很好的展现了细节信息.但对于图中的深度平滑性,本文算法仍还有所不足.因此,在之后的工作中,我们应该更加关注平滑性,将深度表现的更加平滑,得到更完善的深度信息.

猜你喜欢

光场斜率像素
像素前线之“幻影”2000
巧甩直线斜率公式解数学题
光场成像原理及应用技术
“像素”仙人掌
光场图像重构算法仿真
求斜率型分式的取值范围
高像素不是全部
矢量光场 基本原理和应用
疯摄影
导数几何意义的深层次应用