深度学习算法在不同任务中的使用到的相同feature/trick合集(持续更新)

在深度学习不同的任务中,往往会用到类似的trick,虽然NLP算法和图像算法处理的场景不同,但是有很多共同的trick可以起到不错的作用,本文记录不同任务中使用到的相同trick。

NLP任务的Transformer模型和换脸任务deepfake(原始版本)

Transformer的multi-head机制

auto-encoder版本的deepfake的upscale(反卷积)中使用了PixelShuffle,将filter变为1/4,高和宽各变为两倍(完成反卷积)。这个操作实际上是打乱了图像空间依赖性,让网络能更充分地理解图像。

NLP任务的Transformer模型和换脸任务的faceswap-GAN(deepfake-GAN)

Transformer模型里使用了self-attention,faceswap-GAN的encoder和decoder的卷积层之间也用了self-attention机制。

self-attention在GAN中的使用论文(SAGAN):Self-Attention Generative Adversarial Networks

人脸识别任务如insightface(arcface)和换脸任务faceswap-GAN都使用了MTCNN来检测定位和摆正人脸

InfoGAN中求L1(G,Q)时用到了monte-carlo simulation,蒙特卡洛估计在强化学习里经常用到,如alpha-go中用于走子时的估计。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值