相关文章推荐
高大的茄子  ·  条目 - .NET MAUI | ...·  1 年前    · 
傻傻的熊猫  ·  前后端交互,后端与后端交互中文乱码 - ...·  1 年前    · 
奔跑的风衣  ·  JavaScript语言编程规范(ES5) ...·  2 年前    · 
风度翩翩的丝瓜  ·  android 虚拟机源码 ...·  2 年前    · 
闷骚的山楂  ·  我对函数式编程、面向对象和面向过程三者的理解 ...·  2 年前    · 
Code  ›  资源 | 带自注意力机制的生成对抗网络,实现效果怎样?开发者社区
https://cloud.tencent.com/developer/article/1145538?areaSource=106001.5
卖萌的充电器
2 年前
作者头像
机器之心
0 篇文章

资源 | 带自注意力机制的生成对抗网络,实现效果怎样?

前往专栏
腾讯云
开发者社区
文档 意见反馈 控制台
首页
学习
活动
专区
工具
TVP
文章/答案/技术大牛
发布
首页
学习
活动
专区
工具
TVP
返回腾讯云官网
社区首页 > 专栏 > 机器之心 > 正文

资源 | 带自注意力机制的生成对抗网络,实现效果怎样?

发布 于 2018-06-08 13:17:22
441 0
举报

选自GitHub

机器之心编译

参与:杨洁湫、李亚洲

在前一段时间,Han Zhang 和 Goodfellow 等研究者提出添加了自注意力机制的生成对抗网络,这种网络可使用全局特征线索来生成高分辨率细节。本文介绍了自注意力生成对抗网络的 PyTorch 实现,读者也可以尝试这一新型生成对抗网络。

项目地址:https://github.com/heykeetae/Self-Attention-GAN

这个资源库提供了一个使用 PyTorch 实现的 SAGAN。其中作者准备了 wgan-gp 和 wgan-hinge 损失函数,但注意 wgan-gp 有时与谱归一化(spectral normalization)是不匹配的;因此,作者会移除模型所有的谱归一化来适应 wgan-gp。

在这个实现中,自注意机制会应用到生成器和鉴别器的两个网络层。像素级的自注意力会增加 GPU 资源的调度成本,且每个像素有不同的注意力掩码。Titan X GPU 大概可选择的批量大小为 8,你可能需要减少自注意力模块的数量来减少内存消耗。

目前更新状态:

  • 注意力可视化 (LSUN Church-outdoor)
  • 无监督设置(现未使用标签)
  • 已应用:Spectral Normalization(代码来自 https://github.com/christiancosgrove/pytorch-spectral-normalization-gan)
  • 已实现:自注意力模块(self-attention module)、两时间尺度更新规则(TTUR)、wgan-hinge 损失函数和 wgan-gp 损失函数

结果

 
推荐文章
高大的茄子  ·  条目 - .NET MAUI | Microsoft Learn
1 年前
傻傻的熊猫  ·  前后端交互,后端与后端交互中文乱码 - 从过去穿越到现在 - 博客园
1 年前
奔跑的风衣  ·  JavaScript语言编程规范(ES5) - 简书
2 年前
风度翩翩的丝瓜  ·  android 虚拟机源码 安卓原生虚拟机_mob6454cc6172e5的技术博客_51CTO博客
2 年前
闷骚的山楂  ·  我对函数式编程、面向对象和面向过程三者的理解_函数式编程是面向过程吗_Mandy_i的博客-CSDN博客
2 年前
今天看啥   ·   Py中国   ·   codingpro   ·   小百科   ·   link之家   ·   卧龙AI搜索
删除内容请联系邮箱 2879853325@qq.com
Code - 代码工具平台
© 2024 ~ 沪ICP备11025650号