自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 pytorch 中的 ConvTranspose2d

torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0)逆卷积包含两步,先对原 tensor 进行 上采样,然后再进行一次常规的卷积操作。上采样:每两行(列)之间插入()个零行(列); 周边zero-padding,。卷积操作:以输入的, 步长始终为1(和输入的stride的值无关)。新特征的大小:Ref:...

2020-07-03 12:51:48 2539

原创 对 np.transpose() 的理解

np.transpose(x, (1, 2, 0))按照指定的axis顺序对array x 进行索引,若x中某个元素的index是(x1, x2, x3),则经上面变换以后其index变为(x2, x3, x0)。易知,np.transpose(x, (0, 1, 2))和 x 相同。在pytorch中图片的像素点是按照(c, H, W)排列的,我们可以利用上述变换将像素点按照(H, W, c)排布,从而使plt.imshow()可以读取。...

2020-07-02 16:42:48 457

原创 pytorch 的常见用法

1. torchvision.transforms用法介绍https://www.jianshu.com/p/1ae863c1e66d2. model summaryhttps://stackoverflow.com/questions/42480111/model-summary-in-pytorch3. a.mul(b) , a与b对应元素相乘; a.mm(b), a与b矩阵相...

2019-12-03 17:56:07 150

原创 Machine Learning_Resources

Kernel Method, by 李政轩https://www.youtube.com/watch?v=p4t6O9uRX-U&list=PLt0SBi1p7xrRKE2us8doqryRou6eDYEOy——相关博客: https://blog.csdn.net/baimafujinji/article/details/79372911...

2019-06-24 09:46:48 106

原创 Anomaly Detection_Resources

1. collections[1]. 缺陷检测论文,by 庆志的小徒弟https://blog.csdn.net/qq_27871973/article/details/85284757[2]. Awesome anomaly detection, in Githubhttps://github.com/hoya012/awesome-anomaly-detection[3]....

2019-06-04 22:37:36 279

转载 关于深度学习中的注意力机制,这篇文章从实例到原理都帮你参透了

最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。 本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注...

2019-03-28 16:13:24 1368

原创 LSTM

简言之,LSTM对过去()选择性地遗忘, 对当前输入()选择性地吸收,生成当前记忆(),同时有选择性地输出()。选择基于和前一输出.[1] Understanding LSTM Networks http://colah.github.io/posts/2015-08-Understanding-LSTMs/[2] 人人都能看懂的LSTM https:...

2019-03-26 12:03:51 69

转载 CNN

卷积神经网络https://blog.csdn.net/stdcoutzyx/article/details/41596663如何理解卷积和 poolinghttps://www.cnblogs.com/baiting/p/6101981.html

2019-03-15 16:49:06 72

转载 转载:计算机视觉中的注意力机制

一篇关于计算机视觉中的注意力机制的博客:https://zr9558.com/2019/01/23/attentioninimagerecognition/Quora1:What is Attention Mechanism in Neural Networks?https://www.quora.com/What-is-Attention-Mechanism-in-Neural...

2019-03-13 12:01:27 244

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除