20221024 pytorch numpy

1、np.dot()

np.dot()函数的用法详解_python_脚本之家 (jb51.net)

https://www.cnblogs.com/JunzhaoLiang/p/13295685.html

 2、余弦相似度

(203条消息) 机器学习中的数学——距离定义(八):余弦距离(Cosine Distance)_von Neumann的博客-CSDN博客_余弦距离

3、全连接

如果是23类别,就取最大的,如果是512,就是特征向量,直接拿来计算余弦相似度。

nn.Linear(512,23)

4、欧式距离

(203条消息) n维空间的欧氏距离公式_特征向量的距离度量_484773的博客-CSDN博客

5、pytorch 学习文档

https://pytorch.apachecn.org/#/

6.tensor中的view()、sequeeze()、resize()操作_tensor.view_fly_Xiaoma的博客-CSDN博客

7.requires_grad,grad_fn,grad的含义及使用_dlage的博客-CSDN博客 

8.详解Numpy数组转置的三种方法T、transpose、swapaxes - 风纳云

9.tensor维度

1 # 形状为[],零维

[1,2,3] # 形状为[3],一维

[[1,2],[3,4]] # 形状为[2,2],二维

[[[1,2],[3,4]],[[1,2],[3,4]]] # 形状为[2,2,2],三维

10.

【PyTorch】torch.max()和torch.topk() - 知乎

【菜菜的CV进阶之路-Pytorch基础-库函数】topk()详解_.topk()_智慧地球(AI·Earth)的博客-CSDN博客

11.

【pytorch】view和reshape底层原理 - 知乎

tensor.view(1, -1) 是 PyTorch 中用于改变张量形状的操作之一。具体来说,这个操作将一个张量从原来的形状转换为一个新的形状,其中第一个维度(通常是批次维度)设置为1,而剩余的维度被自动计算以保持总元素数量不变。

  • 第一个维度(1):这个操作将原来的张量视为具有批次维度的张量,其中批次大小为1。这在某些情况下很有用,特别是当您要处理单个样本的情况时。

  • -1:这是一个特殊的参数,它告诉 PyTorch 自动计算该维度的大小,以保持张量的总元素数量不变。换句话说,它会根据张量的总大小和已知的维度来计算出新维度的大小。

以下是一个示例,说明如何使用 tensor.view(1, -1)

假设有一个形状为 (2, 3) 的张量:

 

luaCopy code

tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])

使用 tensor.view(1, -1) 将其形状更改为 (1, 6),如下所示:

 

makefileCopy code

reshaped_tensor = tensor.view(1, -1)

reshaped_tensor 的形状现在是 (1, 6),表示它是一个批次大小为1的张量,包含6个元素。原始张量的元素顺序保持不变,只是形状发生了变化。

这种操作在神经网络中常用于处理单个样本,因为许多神经网络库(包括 PyTorch)通常期望输入是批次的形式,即使处理单个样本时也不例外。

12.
翻转数组(flip()函数)--numpy_np.flip_牵牛花主人的博客-CSDN博客

13.

numpy的concatenate()、hstack()、vstack()、stack()函数分析_npconcatenate函数类似_RedMery的博客-CSDN博客

14.卷积

nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3,

bias=False)

Pytorch的nn.Conv2d()详解-CSDN博客

 

Conv W(64*3*7*7) B(64)代表什么

在深度学习中,Conv 通常代表卷积层。对于一个卷积层,通常有两个主要组成部分:卷积核权重(W)和偏置(B)。

  1. W(6437*7):

    • 64:表示卷积层中有64个卷积核(或滤波器)。
    • 3:表示每个卷积核有3个通道,通常对应于输入数据的通道数。例如,如果输入是彩色图像,有红、绿、蓝三个通道。
    • 7*7:表示每个卷积核的大小为7x7。这是卷积核在输入数据上滑动时所覆盖的空间区域的大小。

    因此,W 包含了卷积层中所有卷积核的权重参数。

  2. B(64):

    • 64:表示卷积层中有64个偏置项,每个卷积核对应一个偏置项。

偏置(B)用于在卷积操作后引入非线性,它为每个卷积核提供了一个偏移量。在卷积操作中,每个卷积核与输入数据进行卷积运算,并加上相应的偏置项。这有助于模型更好地适应不同类型的特征。

综合起来,Conv W(64*3*7*7) B(64) 描述了一个拥有64个卷积核、每个卷积核有3个通道、大小为7x7的卷积层,同时有64个偏置项。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值