【时间】2020.01.07

【题目】《Perceptual Losses for Real-Time Style Transfer and Super-Resolution》论文及代码实现

一、论文要点

1、网络结构

  • 包含图片转移网络和Loss网络两部分,包含style loss和 content loss 两种损失,基本思路和Neural Style transfer相似,只是使用了图片转移网络进行风格迁移,而Neural Style transfer是通过梯度上升直接修改content 图像x。
  • Loss网络使用VGG-16,用于计算两个loss
  • 图片转移网络的结构如下(包括3层卷积,5个残差block,2个反卷积(上采样))--参考上面的GitHub代码:
#pytorch
class ImageTransformNet(nn.Module):
    def __init__(self):
        super(ImageTransformNet, self).__init__()
        # nonlineraity
        self.relu = nn.ReLU()
        self.tanh = nn.Tanh()
        # encoding layers
        self.conv1 = ConvLayer(3, 32, kernel_size=9, stride=1)
        self.in1_e = nn.InstanceNorm2d(32, affine=True)
        self.conv2 = ConvLayer(32, 64, kernel_size=3, stride=2)
        self.in2_e = nn.InstanceNorm2d(64, affine=True)
        self.conv3 = ConvLayer(64, 128, kernel_size=3, stride=2)
        self.in3_e = nn.InstanceNorm2d(128, affine=True)
        # residual layers
        self.res1 = ResidualBlock(128)
        self.res2 = ResidualBlock(128)
        self.res3 = ResidualBlock(128)
        self.res4 = ResidualBlock(128)
        self.res5 = ResidualBlock(128)
        # decoding layers
        self.deconv3 = UpsampleConvLayer(128, 64, kernel_size=3, stride=1, upsample=2 )
        self.in3_d = nn.InstanceNorm2d(64, affine=True)
        self.deconv2 = UpsampleConvLayer(64, 32, kernel_size=3, stride=1, upsample=2 )
        self.in2_d = nn.InstanceNorm2d(32, affine=True)
        self.deconv1 = UpsampleConvLayer(32, 3, kernel_size=9, stride=1)
        self.in1_d = nn.InstanceNorm2d(3, affine=True)
    def forward(self, x):
        # encode
        y = self.relu(self.in1_e(self.conv1(x)))
        y = self.relu(self.in2_e(self.conv2(y)))
        y = self.relu(self.in3_e(self.conv3(y)))
        # residual layers
        y = self.res1(y)
        y = self.res2(y)
        y = self.res3(y)
        y = self.res4(y)
        y = self.res5(y)
        # decode
        y = self.relu(self.in3_d(self.deconv3(y)))
        y = self.relu(self.in2_d(self.deconv2(y)))
        #y = self.tanh(self.in1_d(self.deconv1(y)))
        y = self.deconv1(y)
        return y
  • 训练时使用1张风格图片和多张内容图片进行训练,更新图片转移网络,训练完成后图片转移网络能够直接对输入的内容图片进行风格迁移。
【时间】2020.01.07【题目】《Perceptual Losses for Real-Time Style Transfer and Super-Resolution》论文及代码实现《基于感知损失函数的实时风格转换和超分辨率重建》 文章地址:《Perceptual Losses for Real-Time Style Transfer and Super-Resoluti...
Perceptual Lo sse s for Real - Time Style Transfer and Super - Resolution Paper:https://arxiv.org/pdf/1603.08155.pdf Code:https://github.com/ChengBinJin/ Real - time - style - transfer Supplement:https://cs.stanfo...
按照文中所述的残差网络架构如下,只有结尾和开头的卷积核大小为9*9,其余均为3*3的卷积核,中间有5个残差块组成的bottleneck,最后利用tanh函数将图片的RGB值映射到0~255(原来是-1~1之间的)。 conv1 = _conv_layer(image, 32, 9, 1) conv2 = _conv_layer(conv1, 64, 3, 2) conv... 文章地址:《 Perceptual Lo sse s for Real - Time Style Transfer and Super - Resolution 》 arXiv.1603.08155 转自:基于感知损失函数的实时风格转换和超分辨率重建 (zhwhong) Abstract   摘要:我们考虑的图像转换的问题,即将一个输入
Conv-TasNet 是一种用于语音源分离的神经网络模型。它的特点是采用深度卷积神经网络来进行特征提取和音源分离,相比于传统的算法具有更好的性能。 Conv-TasNet 的 代码 实现 包括两部分:网络架构和训练过程。在网络架构中,主要包括深度卷积神经网络的搭建和损失函数的设计。在训练过程中,主要包括数据预处理、模型训练和结果评估等步骤。 网络架构部分,Conv-TasNet 采用了一种叫做“时间域卷积递归网络”(TD-ConvRNN)的模型,该模型可以有效地提取时域特征。然后再通过一系列卷积层 实现 音源分离。而该模型的损失函数采用的是 SI-SNR(Scale-Invariant Source to Noise Ratio),这个指标可以测量分离后的语音信号与原始语音信号之间的相似度。 训练过程中,主要步骤包括: 1. 数据预处理:将原始语音信号分解成单独的语音源和背景噪音,并对数据进行标准化。 2. 模型训练:采用反向传播算法和随机梯度下降优化算法,不断更新模型的权重和偏置,以最小化损失函数。 3. 结果评估:通过计算 SI-SNR 来评估模型的性能,同时还可以采用其他指标,如 PESQ( Perceptual Evaluation of Speech Quality)等来评估模型的表现。 总的来说,Conv-TasNet 的 代码 解析较为复杂,但在语音源分离领域具有较为优异的表现。用户可以参考官方提供的 代码 和相关 论文 进行深入研究。