torch.from_numpy()、torch.view()、torch.masked_select()、 F.softmax() 、F.log_softmax()、torch.mean()函数

  1. torch.from_numpy()
    把数组转换成张量,且二者共享内存,对张量进行修改比如重新赋值,那么原始数组也会相应发生改变

  2. torch.view()

	x = torch.tensor(2, 2, 2)
	t = x.view(1, 8) # 输出数组的大小为 1*8
	t = x.view(-1, 4) # 输出数组的大小为 2*4,-1表示自行判断
	t = x.view(8) # 输出数组的大小为 8*1 
	t = x.view(-1) # 输出数组的大小为 1*8

view()返回的tensor和传入的tensor共享内存

  1. torch.masked_select()
    在这里插入图片描述
    在这里插入图片描述
  2. torch.mean()
    dim=1 行的平均值
    dim=0 列的平均值
  3. ** F.softmax() 与F.log_softmax()**
    F.softmax(x,dim=1) 或者 F.softmax(x,dim=0) # 0是对列做归一化,1是对行做归一化
    F.log_softmax(x,dim=1) 或者 F.log_softmax(x,dim=0) #在softmax的结果上再做多一次log运算
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
torch.from_numpy是一个函数,用于从numpy.ndarray创建一个张量。返回的张量和numpy.ndarray共用内存,对张量的修改将反映在numpy.ndarray,反之亦然。返回的张量不可调整大小。\[1\]这个函数的语法是torch.from_numpy(ndarray)。举例如下: ```python import torch import numpy as np a = np.array(\[1, 2, 3\]) t = torch.from_numpy(a) print(t) # tensor(\[1, 2, 3\]) t\[0\] = -1 print(a) # array(\[-1, 2, 3\]) ``` 在这个例子中,我们首先创建了一个numpy数组a,然后使用torch.from_numpy函数将其转换为张量t。修改张量t的值会反映在原始的numpy数组a上。\[2\] 另外一个例子如下: ```python import numpy as np import torch data1 = np.array(\[12, 56, 9, 6\]) print('data1的数据类型为:', type(data1)) print('data1的值为:', data1) data2 = torch.from_numpy(data1) print('data2的数据类型为:', type(data2)) print('data2的值为:', data2) data2\[1\] = 3 print('data2的数据类型为:', type(data2)) print('data2的值为:', data2) ``` 在这个例子中,我们首先创建了一个numpy数组data1,然后使用torch.from_numpy函数将其转换为张量data2。修改张量data2的值会反映在原始的numpy数组data1上。\[3\] #### 引用[.reference_title] - *1* [深入浅出Pytorch函数——torch.from_numpy](https://blog.csdn.net/hy592070616/article/details/129309583)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [torch.from_numpy(ndarray) 功能及举例](https://blog.csdn.net/zhaoyunduan1958/article/details/108603945)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [torch.from_numpy() 函数torch学习篇》](https://blog.csdn.net/m0_56654441/article/details/120645753)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值