自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 torchsummary用法

3. conv1层,in_channel数为3,因为输入的参数的通道数就是3。所以输出大小h= (32+2*1-3)/1 + 1 = 32。),则默认的步幅是等于池化窗口的大小。输出大小为(16+2*1-3)/1 +1 = 16。所以conv1的输出为[-1,16,32,32]所以conv2的输出为[-1,32,16,16]所以max_pool1层的输出为[-1,16,16,16]所以max_pool2层的输出为[-1,32,8,8]max_pool2层后,将其打平,一共的参数数量是32。

2024-06-05 19:59:44 1571

原创 向量one-hot编码和embedding

而这个10是由输入的总词数决定的,所以当总词数很多时,张量会很大很大,而embedding的3是我们人为自定义的,当总词数比较多的时候会比较有优势。从one-hot变成embedding的一个好处就是,编码的长度和总的词数没有关系了。相当于是把输入的每一项扩展了一个维度,映射到了embedding size大小的维度上。One-hot编码是一种将分类变量转换为二进制向量的方法,其中只有一个元素是1,其他都是0。Embedding是一种将分类变量映射到低维空间的方法,常用于自然语言处理中的词嵌入。

2024-06-05 19:55:01 1019

原创 PyTorch 深度学习实践 第12讲

第12讲 循环神经网络(基础)1. 卷积神经网络CNN,由于权重共享的概念,整个图像上用的卷积核是共享的。所需要的参数量是比较少的。而全连接层其实是参数量最大的部分。2. 所以RNN也是用到了权重共享的概念,减少需要训练的数量。3. 主要是针对有序列的数据,先后的时间序列关系,前后互相依赖。4. 自然语言,就是常见的具有序列关系的数据。RNN cell其实还是一个线性层。所有的这一串RNN cell,其实是同一个,这个线性层的权重是一直在循环使用的。

2024-06-05 16:38:41 1617

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除