【时间】2020.01.07
【题目】《Perceptual Losses for Real-Time Style Transfer and Super-Resolution》论文及代码实现
一、论文要点
1、网络结构
-
包含图片转移网络和Loss网络两部分,包含style loss和 content loss 两种损失,基本思路和Neural Style transfer相似,只是使用了图片转移网络进行风格迁移,而Neural Style transfer是通过梯度上升直接修改content 图像x。
-
Loss网络使用VGG-16,用于计算两个loss
-
图片转移网络的结构如下(包括3层卷积,5个残差block,2个反卷积(上采样))--参考上面的GitHub代码:
#pytorch
class ImageTransformNet(nn.Module):
def __init__(self):
super(ImageTransformNet, self).__init__()
# nonlineraity
self.relu = nn.ReLU()
self.tanh = nn.Tanh()
# encoding layers
self.conv1 = ConvLayer(3, 32, kernel_size=9, stride=1)
self.in1_e = nn.InstanceNorm2d(32, affine=True)
self.conv2 = ConvLayer(32, 64, kernel_size=3, stride=2)
self.in2_e = nn.InstanceNorm2d(64, affine=True)
self.conv3 = ConvLayer(64, 128, kernel_size=3, stride=2)
self.in3_e = nn.InstanceNorm2d(128, affine=True)
# residual layers
self.res1 = ResidualBlock(128)
self.res2 = ResidualBlock(128)
self.res3 = ResidualBlock(128)
self.res4 = ResidualBlock(128)
self.res5 = ResidualBlock(128)
# decoding layers
self.deconv3 = UpsampleConvLayer(128, 64, kernel_size=3, stride=1, upsample=2 )
self.in3_d = nn.InstanceNorm2d(64, affine=True)
self.deconv2 = UpsampleConvLayer(64, 32, kernel_size=3, stride=1, upsample=2 )
self.in2_d = nn.InstanceNorm2d(32, affine=True)
self.deconv1 = UpsampleConvLayer(32, 3, kernel_size=9, stride=1)
self.in1_d = nn.InstanceNorm2d(3, affine=True)
def forward(self, x):
# encode
y = self.relu(self.in1_e(self.conv1(x)))
y = self.relu(self.in2_e(self.conv2(y)))
y = self.relu(self.in3_e(self.conv3(y)))
# residual layers
y = self.res1(y)
y = self.res2(y)
y = self.res3(y)
y = self.res4(y)
y = self.res5(y)
# decode
y = self.relu(self.in3_d(self.deconv3(y)))
y = self.relu(self.in2_d(self.deconv2(y)))
#y = self.tanh(self.in1_d(self.deconv1(y)))
y = self.deconv1(y)
return y
-
训练时使用1张风格图片和多张内容图片进行训练,更新图片转移网络,训练完成后图片转移网络能够直接对输入的内容图片进行风格迁移。
【时间】2020.01.07【题目】《Perceptual Losses for Real-Time Style Transfer and Super-Resolution》论文及代码实现《基于感知损失函数的实时风格转换和超分辨率重建》 文章地址:《Perceptual Losses for Real-Time Style Transfer and Super-Resoluti...
Perceptual
Lo
sse
s for
Real
-
Time
Style
Transfer
and
Super
-
Resolution
Paper:https://arxiv.org/pdf/1603.08155.pdf
Code:https://github.com/ChengBinJin/
Real
-
time
-
style
-
transfer
Supplement:https://cs.stanfo...
按照文中所述的残差网络架构如下,只有结尾和开头的卷积核大小为9*9,其余均为3*3的卷积核,中间有5个残差块组成的bottleneck,最后利用tanh函数将图片的RGB值映射到0~255(原来是-1~1之间的)。
conv1 = _conv_layer(image, 32, 9, 1)
conv2 = _conv_layer(conv1, 64, 3, 2)
conv...
文章地址:《
Perceptual
Lo
sse
s for
Real
-
Time
Style
Transfer
and
Super
-
Resolution
》 arXiv.1603.08155
转自:基于感知损失函数的实时风格转换和超分辨率重建 (zhwhong)
Abstract
摘要:我们考虑的图像转换的问题,即将一个输入
Conv-TasNet 是一种用于语音源分离的神经网络模型。它的特点是采用深度卷积神经网络来进行特征提取和音源分离,相比于传统的算法具有更好的性能。
Conv-TasNet 的
代码
实现
包括两部分:网络架构和训练过程。在网络架构中,主要包括深度卷积神经网络的搭建和损失函数的设计。在训练过程中,主要包括数据预处理、模型训练和结果评估等步骤。
网络架构部分,Conv-TasNet 采用了一种叫做“时间域卷积递归网络”(TD-ConvRNN)的模型,该模型可以有效地提取时域特征。然后再通过一系列卷积层
实现
音源分离。而该模型的损失函数采用的是 SI-SNR(Scale-Invariant Source to Noise Ratio),这个指标可以测量分离后的语音信号与原始语音信号之间的相似度。
训练过程中,主要步骤包括:
1. 数据预处理:将原始语音信号分解成单独的语音源和背景噪音,并对数据进行标准化。
2. 模型训练:采用反向传播算法和随机梯度下降优化算法,不断更新模型的权重和偏置,以最小化损失函数。
3. 结果评估:通过计算 SI-SNR 来评估模型的性能,同时还可以采用其他指标,如 PESQ(
Perceptual
Evaluation of Speech Quality)等来评估模型的表现。
总的来说,Conv-TasNet 的
代码
解析较为复杂,但在语音源分离领域具有较为优异的表现。用户可以参考官方提供的
代码
和相关
论文
进行深入研究。