![]() |
没人理的绿豆 · 删除mysql所有字段值为NULL的数据_s ...· 4 月前 · |
![]() |
有胆有识的灌汤包 · wpf treeview节点取消选中 - ...· 5 月前 · |
![]() |
想出国的苦瓜 · 怎么用正则表达式解析sql语句 ? - 知乎· 10 月前 · |
![]() |
活泼的树叶 · Word处理控件Aspose.Words功能 ...· 1 年前 · |
![]() |
俊逸的茶壶
1 年前 |
19CVPR 结果早就出来了,最近才读到的19年oral的去模糊工作。博主认真的搜了一下18年的CVPR,deblurring 相关的oral为zero,底层图像复原的oral工作也很少。因此,十分兴奋看到deblurring的oral工作。
文章介绍了一种使用双目视觉实现去模糊的端到端基于深度学习的算法。所谓双目视觉,就是存在左视和右视两张图像。通过结合两张图像的信息,实现去模糊和过程。双目视觉在图像领域中十分常见,例如仿生机器人的两个摄像头,手机双摄,无人驾驶飞行器等等。(博主观点:对一个应用问题,如果有多帧图像,有更多的信息那就应该用。这点区别于学术研究)
针对一个这样的双目视觉的问题,作者提出了两个观测:
根据上面的两个观测,启发作者在实现双目视觉去模糊 的时候利用上述两个信息。在利用上述信息之前,先细致的分析这个observation。分别将两个observation定义为:depth-varying blur和view-varying blur.
画出一个简单的模型,如图二所示。从Fig. (2)(a)中,我们可以得出结论,
f 反相关的。简单验证了第一个observation。(为什么是简单,因为模糊程度虽然和深度相关,但是我们还是认为不绝对,比如一个距离你近的人和一个距离远的车,也许距离远的车模糊程度更高。因此前提还是前后两个目标的速度相似)
第二个observation说的是两个视点的模糊程度是不一致的。作者从平移和旋转两个角度来说明。
注意:平移是指物体的平移,旋转是指相机的旋转
。
如图二(b)所示
目标平移
时,当目标沿着深度方向移动时,可以得出如下结论
那么说明两个视点的模糊分别为
v _ { C _ { L } } / v _ { C _ { R } } = \overline { C _ { L } O } / \overline { C _ { R } O }
v
C
L
/
v
C
R
=
C
L
O
/
C
R
O
两个视点的线速度的方向和大小都不同,说明目标在成像面的模糊核方向和大小都不同。
为了解决双目视觉去模糊的问题,设计的方法就是要建模上述的两个观测。设计的网络结构如下图所示。
博主将网络结构分成了三块,去模糊,估计深度信息,和融合网络。
这两个网络结构类似,输入不同,功能不同。都是用U-NET搭建而成,中间引入了空洞ResBlock 和context module(其实就是ASSP,只是改了空洞卷积的参数,ASSP可见DeepLab原文)。(博主认为这是一些很tival和experimental的东西,我最关心的是如何建模上述的两个观测)
融合网络就是要将上述提到的两个观测和去模糊问题实现有机的融合。因此融合的内容分为三个部分,
一个是去模糊的特征:
F _ { \text {views} } ^ { L } = F ^ { L } \odot \left( 1 - G ^ { L } \right) + W ^ { L } \left( F ^ { R } \right) \odot G ^ { L }
F
views
L
=
F
L
⊙
(
1
−
G
L
)
+
W
L
(
F
R
)
⊙
G
L
所示的函数,这样获得了建模视点间差异信息和特征
F
d
e
p
t
h
L
。
上述三者结合就实现了同和网络。
这里其实不是很明白只是比较了单目的图像去模糊算法,其实存在多目的图像去模糊方法,不知道为什么没有比较。具体实验可以间原文。
![]() |
想出国的苦瓜 · 怎么用正则表达式解析sql语句 ? - 知乎 10 月前 |