![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
xzw96
写的都是自己碰到的问题。
展开
-
世界名校人工智能实验室网址(研究方向)
斯坦福大学AI实验室:人工智能、机器人https://ai.stanford.edu/麻省理工学院计算机科学与人工智能实验室https://www.csail.mit.edu/牛津大学计算机科学学院:算法、人工智能、自动验证、数据与知识http://www.cs.ox.ac.uk/卡内基梅隆机器人学院:机器人开发https://www.cmu.edu/roboticsacademy/伯克利人工智能研究(BAIR)实验室:深度强化学习https://bair.berkel..原创 2022-05-31 02:28:13 · 959 阅读 · 1 评论 -
Pytorch实现卷积运算(互相关)
Pytorch实现卷积运算(互相关)1. 实现过程在二维互相关运算中,卷积窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动。当卷积窗口滑动到某一位置时,窗口中的输入子数组与核数组按元素相乘并求和,得到输出数组中相应位置的元素。图中的输出数组高和宽分别为2,其中的4个元素由二维互相关运算得出:0×0+1×1+3×2+4×3=19,1×0+2×1+4×2+5×3=25,3×0+4×1+6×2+7×3=37,4×0+5×1+7×2+8×3=43.0\times0+1\tim原创 2021-08-14 09:37:32 · 1453 阅读 · 0 评论 -
Torch搭建网络层的三种方式
Torch搭建网络层的三种方式import torchimport torch.nn as nn from collections import OrderedDictclass LinearNet(nn.Module): def __init__(self, n_feature): super(LinearNet, self).__init__() self.linear = nn.Linear(n_feature, 1) def for原创 2021-08-11 22:05:10 · 852 阅读 · 0 评论 -
PyTorch入门 DeepLearning入门
PyTorch入门 DeepLearning入门PyTorch中文文档深度学习入门吴恩达深度学习deeplearning.ai-哔哩哔哩Dive-into-DL-PyTorch《动手学深度学习》(PyTorch版)-哔哩哔哩PyTorch深度学习入门教程-哔哩哔哩PyTorch实战教程相关pdfPyTorch中文文档: 基本的torch语法深度学习入门:深度学习基本知识Dive-into-DL-PyTorch: 结合深度学习PyTorch实战教程: 小项目实战PyTo原创 2021-08-09 11:53:33 · 367 阅读 · 0 评论 -
1x1卷积和池化操作
1x1卷积和池化操作1. 本质1x1卷积和池化操作的本质是压缩feature mapping(输入层)1x1卷积通过改变feature mapping(输入层)的通道数量,具体操作是减少通道数量实现压缩池化操作通过改变feature mapping(输入层)的尺寸(宽和高)2. 1x1卷积操作假设这是一个28×28×192的输入层,如果通道数量很大,该如何把它压缩为28×28×32维度的层呢?你可以用32个大小为1×1的过滤器,严格来讲每个过滤器大小都是1×1×192维,因为过滤器中通道数量原创 2021-08-07 11:11:35 · 1941 阅读 · 0 评论