这两个网络结构类似,输入不同,功能不同。都是用U-NET搭建而成,中间引入了空洞ResBlock 和context module(其实就是ASSP,只是改了空洞卷积的参数,ASSP可见DeepLab原文)。(博主认为这是一些很tival和experimental的东西,我最关心的是如何建模上述的两个观测)
融合网络就是要将上述提到的两个观测和去模糊问题实现有机的融合。因此融合的内容分为三个部分,
一个是去模糊的特征:
F _ { \text {views} } ^ { L } = F ^ { L } \odot \left( 1 - G ^ { L } \right) + W ^ { L } \left( F ^ { R } \right) \odot G ^ { L }
F
views
L
=
F
L
⊙
(
1
−
G
L
)
+
W
L
(
F
R
)
⊙
G
L
所示的函数,这样获得了建模视点间差异信息和特征
F
d
e
p
t
h
L
。
上述三者结合就实现了同和网络。
这里其实不是很明白只是比较了单目的图像去模糊算法,其实存在多目的图像去模糊方法,不知道为什么没有比较。具体实验可以间原文。