地图上海洋白色深度是多少?

本发明涉及水下图像技术领域,具体地说,是一种基于水下光线衰减先验性的水下场景深度地图估计方法。

水下考古、水下资源勘探、水下管道探索等水下活动面临着极大挑战,因此获得清晰的水下图像对于海洋探索起到关键作用。但是由于水下环境和其物理机制的影响,近些年水下图像处理逐渐受到人们的关注。在水下图像的成像过程,光线传播在水中受到水下环境的影响存在选择性吸收和色散等问题,造成水下图像模糊、偏色以及能见度低。水下图像的衰减主要由于光在水中传播时不同频率的通道呈现不同的指数衰减、水下环境导致水下图像引入较大噪声、人造光线的干扰导致图像部分质量降低等因素造成。基于图像成像模型(imageformationmodel)的水下图像复原方法中,正确的场景深度对于背景光(bl)和传输地图(tm)估计都起到关键作用,也就是说准确的场景深度估计是保证水下图象复原的重要环节。水下图像复原方法通常是基于水下成像物理模型,分析水下图像退化机理,估计成像模型参数并以反补偿等方式恢复出清晰自然的水下图像。近几年来水下图像清晰化技术已经取得了显著的效果,并且受到了广泛的应用。

基于物理模型的方法需要建立水下图像的成像模型,通过限制条件估算构建模型中参数,最后反演退化过程得到理想的水下图像,属于图像复原范畴。由于水下图像成像环境和户外大雾天气相似,因此何凯明提出的暗通道先验特性(dcp)被广泛地使用在水下图像复原。2010年,chao等人直接使用dcp复原水下图像,该算法只能提高部分水下图像对比度但是大部分复原图像出现颜色失真。同年,carlevaris-bianco等人发现红色通道和蓝绿色通道在水下传播时存在明显差异的衰减率,提出最大像素先验性(maximumintensityprior,mip),通过不同光线在水中传播的物理属性得出场景深度地图,并由此推理得到传输地图和背景光,简单地解决光照散射、对比度低的问题。2011年,yang等人基于dcp探索出一个简单有效的复原方法,为了降低计算复杂度,使用最小滤波器和中值滤波器代替软抠图(softmatting),该算法使用颜色纠正提高复原图像的对比度,但是低质量的复原结果限制输出图像的视觉效果。2012年,chiang等人考虑水下光线在传播过程中受到光线的选择性衰减特性,使用波长弥补和图像去雾(wcid)方法获得跟正确的场景深度地图,可以有效地产生高质量的水下图像,还可以降低人造光源对复原过程的影响。但是,本方法的物理模型构建局限性大、模型参数估计的计算复杂度高,不适用于不同类型的水下图像复原。为了减少红色分量在图像复原时的影响,研究人员进一步提出基于蓝绿色通道的dcp也被称作udcp)。2013年,drews等人提出基于g-b通道的暗通道先验(udcp)估计水下深度地图最终得到效果更好的输出结果。同年,wen等人提出一种新的水下光学成像数学模型,基于udcp推导出散射率和背景光,最后反演新的成像模型、输出复原图像。2015年,galdran等人提出一种自动红色信道水下图像复原方法。该方法类似于udcp,主要基于倒置的红色通道和蓝绿色通道的暗通道先验;合理地处理人造光源区域;复原图像颜色的真实性。2016年,li等人基于udcp对蓝绿色通道去雾、基于灰度世界假设理论纠正红色通道,提出自适应曝光地图调整过亮或者过暗的区域,解决水下图像对比度低、颜色偏差的问题。2017年,peng等人研究发现图像中更模糊的目标表现更远的场景深度,提出了基于图像模糊和光线吸收(imageblurrinessandlightabsorption,imla)同时使用背景光选择性融合方法、考虑到光线和图像特性并基于三种深度地图估计方法的加权融合方法,得到的深度地图可以适用于不同类型的水下图像,具有较强的鲁棒性。

基于物理模型的场景深度估计方法不能满足实际环境的应用,都需要较长的处理时间,这一方面需要进行优化和提高。目前,基于dcp和udcp的场景深度估计方法虽然可以估计少量场景的水下图像的场景深度,但是对于场景复杂的水下图像不能成功地估计出场景深度,由于dcp和udcp都使用了局部块状搜索加大了计算复杂度,降低了运行效率。基于mip的水下场景深度估计方法考虑到水下光线在传播中存在着选择性衰减特性提出简单的水下场景深度,但是这种先验性并没有得到充分的证明和验证,因此虽然这种方法可以优化场景深度估计的计算,但是不能够适用于不同类型的水下图像。基于imla的水下深度估计方法可以得出不同类型水下图像的场景深度,但是融合方法占用大量的计算,不能够应用在实际应用中。

综上所述,需要一种水下光线衰减先验性,得出水下场景深度估计的线性模型,可以简单有效地估计出场景深度地图,具有较低复杂度的水下场景深度地图估计方法,而关于这种方法目前还未见报道。

本发明的目的是针对现有技术中的不足,提供一种水下光线衰减先验性,得出水下场景深度估计的线性模型,可以简单有效地估计出场景深度地图,具有较低复杂度的水下场景深度地图估计方法。

为实现上述目的,本发明采取的技术方案是:

步骤1:水下光线衰减先验性

由于关于水下场景估计过程中只有少量的信息,复原模糊的水下图像在计算机视觉领域中还是一个比较艰巨的难题。但是,在没有关于水下场景深度的辅助信息时,人们仍然可以快速简单地识别水下场景信息。当探索一个具有鲁棒性的背景光估计模型时,对应于原始图像中在深度地图中最远点经常被认为是场景候选点。考虑到水下光线衰减特性(在水中传播时,红色光线的能量比蓝绿色光线的能量要衰减快速),因此选择红色通道和蓝绿色通道的最大差值用来估计水下背景光。这种准则激励通过做大量的不同水下图像,最终发现一种应用于水下场景深度估计的有效先验性。通过测试大量的水下图像,本发明提出水下光线衰减先验性,主要考虑到蓝绿色通道的最大值(themaximumvalueofg-bintensity,mvgb)和红色通道强度(thevalueofrintensity,vr)的差值与水下场景深度的变化呈现强烈的正比。

2010年,chao等人直接使用dcp复原水下图像,该算法只能提高部分水下图像对比度但是大部分复原图像出现颜色失真。同年,carlevaris-bianco等人发现红色通道和蓝绿色通道在水下传播时存在明显差异的衰减率,提出最大像素先验性(maximumintensityprior,mip),通过不同光线在水中传播的物理属性得出场景深度地图,并由此推理得到传输地图和背景光,简单地解决光照散射、对比度低的问题。2011年,yang等人基于dcp探索出一个简单有效的复原方法,为了降低计算复杂度,使用最小滤波器和中值滤波器代替软抠图(softmatting),该算法使用颜色纠正提高复原图像的对比度,但是低质量的复原结果限制输出图像的视觉效果。2012年,chiang等人考虑水下光线在传播过程中受到光线的选择性衰减特性,使用波长弥补和图像去雾(wcid)方法获得跟正确的场景深度地图,可以有效地产生高质量的水下图像,还可以降低人造光源对复原过程的影响。但是,本方法的物理模型构建局限性大、模型参数估计的计算复杂度高,不适用于不同类型的水下图像复原。为了减少红色分量在图像复原时的影响,研究人员进一步提出基于蓝绿色通道的dcp也被称作udcp)。2013年,drews等人提出基于g-b通道的暗通道先验(udcp)估计水下深度地图最终得到效果更好的输出结果。同年,wen等人提出一种新的水下光学成像数学模型,基于udcp推导出散射率和背景光,最后反演新的成像模型、输出复原图像。2015年,galdran等人提出一种自动红色信道水下图像复原方法。该方法类似于udcp,主要基于倒置的红色通道和蓝绿色通道的暗通道先验;合理地处理人造光源区域;复原图像颜色的真实性。2016年,li等人基于udcp对蓝绿色通道去雾、基于灰度世界假设理论纠正红色通道,提出自适应曝光地图调整过亮或者过暗的区域,解决水下图像对比度低、颜色偏差的问题。2017年,peng等人研究发现图像中更模糊的目标表现更远的场景深度,提出了基于图像模糊和光线吸收(imageblurrinessandlightabsorption,imla)同时使用背景光选择性融合方法、考虑到光线和图像特性并基于三种深度地图估计方法的加权融合方法,得到的深度地图可以适用于不同类型的水下图像,具有较强的鲁棒性。本发明基于peng提出的水下场景深度估计方法得出多种水下图像的场景深度地图,从所有估计的水下场景深度地图中人为地选择100张完全正确的水下场景深度地图,并使用引导滤波器(guidedfilter,gf)精细化水下场景深度地图,得出最终的训练数据集。

步骤3:线性模型的系数学习

基于已经估计的参考深度地图,通过分析mvgb与vr和madps的皮尔逊相关系数分析(pearsoncorrelationcoefficient,pcc)发现本发明假设的两个参数和madps存在强关联的线性关系。为了训练深度地图估计模型,本发明将所有样本按照训练数据与测试数据按照7:3的比例分配并使用十层交叉验证法,最终建立madps和mvgb与vr的线性关系,并成功地训练出最好的学习结果。本发明训练的深度地图可以估计任何一个水下图像的深度地图。

步骤4:场景深度地图估计

本发明确定了深度地图估计的线性模型,并且收集大量不同类型的水下图像去估计多种水下图像的深度地图,发明直接使用本发明估计的线性模型得出的深度地图存在局部人工块状,因此本发明使用引导滤波器(guidedfilter,gf)精细化原始的深度地图,精细化深度地图可以更明显地突出水下图像的场景深度,得到正确的场景深度。为了进一步验证本发明提出的场景深度估计地图,将已估计的深度地图运用在rgb三通道的背景光(backgroundlight,bl)估计和传输地图(transmissionmap,tm)估计中,可以复原模糊的水下图像。本发明提出了基于水下光线衰减先验性的场景深度估计方法可以快速地、有效地得出正确的场景深度,并可以应用在水下图像复原过程中。为了验证场景深度地图估计方法的有效性,本发明从google、youtube和下载并截取超过1200张水下图像原图像,并将所有图像人为修改成400×600像素。为了保证数据集的多样性和代表性,本发明选取多种场景的水下图像,例如单个鱼、鱼群、珊瑚礁和潜水者等不同场景,不同衰减的水下图像,例如深海图像、低亮度水下图像、非常模糊的水下图像和蓝绿色偏光的水下图像,依据以上原则从这些图像中随机选取100张水下图像。将水下场景深度的线性估计模型应用在100张水下图像中可以得出对应的水下场景深度地图,从估计的场景深度地图中可以看出在较远的场景区域中深度地图呈现亮色,在较近的场景区域中深度地图显现浅色,这一现象进一步证明本方法的有效性。

图7展示了基于本发明估计的深度地图得出的水下图像复原结果:

为了进一步验证本发明提出的场景深度估计地图,将已估计的深度地图运用在rgb三通道的背景光(backgroundlight,bl)估计和传输地图(transmissionmap,tm)估计中,可以复原模糊的水下图像。本发明提出了基于水下光线衰减先验性的场景深度估计方法可以快速地、有效地得出正确的场景深度,并可以应用在水下图像复原过程中。

本发明的基于水下光线衰减先验性的水下场景深度地图估计方法,海洋资源丰富、海洋生态多种多样,复原水下场景深度对于海洋资源开发及其保护都起到关键作用。

本方法估计水下场景深度主要是利用水下光线衰减先验性,并选择大量的训练集作为样本训练得到具有较强鲁棒性的水下场景深度估计模型。本发明不但具有较低的复杂度,而且可以正确地估计不同类型的水下图像的场景深度。同时将本发明估计的场景深度地图运用在基于图像成像模型的水下图像增强中可以有效地复原水下图像,研究表明复原后的水下图像不仅可以提高图像质量,而且能够应用于目标识别、目标分类中,有效提高图像分类、图像识别精度。本发明对于水下物种探究、海洋工程、考古遗物等各类图像均有良好的增强效果,同时有助于水下对象(如鱼类、海藻)特征提取、对象识别和跟踪,以及水下导航定位等。由于本方法的简单性和有效性,可以直接将本方法实时地应用在水下图像复原,优化后代码可以直接嵌入相机中完成模糊图像的瞬时增强,具有较强的实际应用价值。

以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明方法的前提下,还可以做出若干改进和补充,这些改进和补充也应视为本发明的保护范围。

}

、能够正确应用相对高度和海拔来表示物体的高度

理解等高线的含义和特点,能够正确判读山地不同部位等高线的特征

能够在分层设色地形图上指出山地、高原、丘陵、平原和盆地的特征

了解地形剖面图的绘制,理解其表示地面起伏的优越性

等高线的含义和特点,等高线地形图的判读

同学们,请回忆地图的基本要素有哪些?(学生回答)对,比例尺、方向和图例是构成

运用地图的基础知识和基本技能

“钥匙”打开地形图,去认识和辨别地球表面各种各样的地形

世界最高峰喜马拉雅山的珠穆朗玛峰的高度是

米高,为什么一座山峰会有两个不同的高度值呢?这两个高度值

又是如何测量得到的呢?

乙两地高度的测量方法,

鼠标点击甲地相对于海平面所作的垂线及数值

甲地相对于海平面的垂直距离为

米,这叫做甲地的海拔高度

乙地的海拔高度是多少呢?

鼠标点击乙地相对于海平面所作的垂线及数值,

让学生自己得出乙地的海拔

从乙地看甲地的高度是多少?

鼠标点击甲地相对于乙地所作的垂线及数值,让学生自己分析回答

米的垂直距离,这就是甲地相对于乙地的相对高度

米表示的是相对高度,请比较两者之间有

什么异同?分别应该如何表述?

教师在组织学生以学习小组讨论比较后进行小结板书

①三个高度的共同点都指的是垂直距离

米都是高出海平面的垂直距离,故叫做海拔或绝对高度,表述为:甲

米则是甲地高出乙地的垂直距离,

③地图上,都是用海拔来表示地面某地点的高度

①海拔——某个地点高出海平面的垂直距离

②相对高度——某个地点高出另一个地点的垂直距离

前面提到的珠穆朗玛峰为什么会有两个不同的高度呢?请同学们分析解决

学生回答后,教师评价并确定正确答案:

米是指珠穆朗玛峰的海拔,

米则指的是珠穆朗玛峰高出青藏高原表面的相对高度

地球表面高低起伏不平,

如何将高低起伏的地表特征比较

准确地在平面的地图上表示出来呢?现在我们运用地面高度,

通过绘制等高线地形图来解决

}

我要回帖

更多关于 大西洋的深度是多少 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信