20221024 pytorch numpy

1、np.dot()

np.dot()函数的用法详解_python_脚本之家 (jb51.net)

https://www.cnblogs.com/JunzhaoLiang/p/13295685.html

 2、余弦相似度

(203条消息) 机器学习中的数学——距离定义(八):余弦距离(Cosine Distance)_von Neumann的博客-CSDN博客_余弦距离

3、全连接

如果是23类别,就取最大的,如果是512,就是特征向量,直接拿来计算余弦相似度。

nn.Linear(512,23)

4、欧式距离

(203条消息) n维空间的欧氏距离公式_特征向量的距离度量_484773的博客-CSDN博客

5、pytorch 学习文档

https://pytorch.apachecn.org/#/

6.tensor中的view()、sequeeze()、resize()操作_tensor.view_fly_Xiaoma的博客-CSDN博客

7.requires_grad,grad_fn,grad的含义及使用_dlage的博客-CSDN博客 

8.详解Numpy数组转置的三种方法T、transpose、swapaxes - 风纳云

9.tensor维度

1 # 形状为[],零维

[1,2,3] # 形状为[3],一维

[[1,2],[3,4]] # 形状为[2,2],二维

[[[1,2],[3,4]],[[1,2],[3,4]]] # 形状为[2,2,2],三维

10.

【PyTorch】torch.max()和torch.topk() - 知乎

【菜菜的CV进阶之路-Pytorch基础-库函数】topk()详解_.topk()_智慧地球(AI·Earth)的博客-CSDN博客

11.

【pytorch】view和reshape底层原理 - 知乎

tensor.view(1, -1) 是 PyTorch 中用于改变张量形状的操作之一。具体来说,这个操作将一个张量从原来的形状转换为一个新的形状,其中第一个维度(通常是批次维度)设置为1,而剩余的维度被自动计算以保持总元素数量不变。

  • 第一个维度(1):这个操作将原来的张量视为具有批次维度的张量,其中批次大小为1。这在某些情况下很有用,特别是当您要处理单个样本的情况时。

  • -1:这是一个特殊的参数,它告诉 PyTorch 自动计算该维度的大小,以保持张量的总元素数量不变。换句话说,它会根据张量的总大小和已知的维度来计算出新维度的大小。

以下是一个示例,说明如何使用 tensor.view(1, -1)

假设有一个形状为 (2, 3) 的张量:

 

luaCopy code

tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])

使用 tensor.view(1, -1) 将其形状更改为 (1, 6),如下所示:

 

makefileCopy code

reshaped_tensor = tensor.view(1, -1)

reshaped_tensor 的形状现在是 (1, 6),表示它是一个批次大小为1的张量,包含6个元素。原始张量的元素顺序保持不变,只是形状发生了变化。

这种操作在神经网络中常用于处理单个样本,因为许多神经网络库(包括 PyTorch)通常期望输入是批次的形式,即使处理单个样本时也不例外。

12.
翻转数组(flip()函数)--numpy_np.flip_牵牛花主人的博客-CSDN博客

13.

numpy的concatenate()、hstack()、vstack()、stack()函数分析_npconcatenate函数类似_RedMery的博客-CSDN博客

14.卷积

nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3,

bias=False)

Pytorch的nn.Conv2d()详解-CSDN博客

 

Conv W(64*3*7*7) B(64)代表什么

在深度学习中,Conv 通常代表卷积层。对于一个卷积层,通常有两个主要组成部分:卷积核权重(W)和偏置(B)。

  1. W(6437*7):

    • 64:表示卷积层中有64个卷积核(或滤波器)。
    • 3:表示每个卷积核有3个通道,通常对应于输入数据的通道数。例如,如果输入是彩色图像,有红、绿、蓝三个通道。
    • 7*7:表示每个卷积核的大小为7x7。这是卷积核在输入数据上滑动时所覆盖的空间区域的大小。

    因此,W 包含了卷积层中所有卷积核的权重参数。

  2. B(64):

    • 64:表示卷积层中有64个偏置项,每个卷积核对应一个偏置项。

偏置(B)用于在卷积操作后引入非线性,它为每个卷积核提供了一个偏移量。在卷积操作中,每个卷积核与输入数据进行卷积运算,并加上相应的偏置项。这有助于模型更好地适应不同类型的特征。

综合起来,Conv W(64*3*7*7) B(64) 描述了一个拥有64个卷积核、每个卷积核有3个通道、大小为7x7的卷积层,同时有64个偏置项。

Python网络爬虫与推荐算法新闻推荐平台:网络爬虫:通过Python实现新浪新闻的爬取,可爬取新闻页面上的标题、文本、图片、视频链接(保留排版) 推荐算法:权重衰减+标签推荐+区域推荐+热点推荐.zip项目工程资源经过严格测试可直接运行成功且功能正常的情况才上传,可轻松复刻,拿到资料包后可轻松复现出一样的项目,本人系统开发经验充足(全领域),有任何使用问题欢迎随时与我联系,我会及时为您解惑,提供帮助。 【资源内容】:包含完整源码+工程文件+说明(如有)等。答辩评审平均分达到96分,放心下载使用!可轻松复现,设计报告也可借鉴此项目,该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的。 【提供帮助】:有任何使用问题欢迎随时与我联系,我会及时解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 下载后请首先打开README文件(如有),项目工程可直接复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值