torch.ones,normal,max

参考 torch.ones,normal,max - 云+社区 - 腾讯云

torch.normal(means, std, out=None)

  • means (Tensor) – 均值
  • std (Tensor) – 标准差
  • out (Tensor) – 可选的输出张量

>>> n_data = torch.ones(5, 2)
>>> print(n_data)
    tensor([[1., 1.],
            [1., 1.],
            [1., 1.],
            [1., 1.],
            [1., 1.]])
>>> print(n_data.shape)
torch.Size([5, 2])
>>> x0 = torch.normal(2*n_data, 1)
>>> print(x0)
    tensor([[3.2688, 1.4834],
            [1.8288, 0.7327],   
            [3.2382, 4.0835],
            [2.8337, 2.1901],
            [3.3097, 2.4447]])
#每个元素是从 均值=2*n_data中对应位置的取值,标准差为1的正态分布中随机生成的
     
>>> print(2*n_data)
    tensor([[2., 2.],
            [2., 2.],
            [2., 2.],
            [2., 2.],
            [2., 2.]])


torch.max(参数1, 1)[1]

torch.max()返回两个结果,第一个是最大值,第二个是对应的索引值;第二个参数 0 代表按列取最大值并返回对应的行索引值,1 代表按行取最大值并返回对应的列索引值。

torch.max()[0], 只返回最大值的每个数

troch.max()[1], 只返回最大值的每个索引

torch.max()[1].data 只返回variable中的数据部分(去掉Variable containing:)

torch.max()[1].data.numpy() 把数据转化成numpy ndarry

torch.max()[1].data.numpy().squeeze() 把数据条目中维度为1 的删除掉

torch.max(tensor1,tensor2) element-wise 比较tensor1 和tensor2 中的元素,返回较大的那个值

引用介绍了一些torch库中的函数,包括torch.ones()、torch.ones_like()、torch.full()、torch.full_like()、torch.arange()、torch.range()和torch.linspace()等。其中,torch.ones()函数创建一个指定形状的张量,并将全部元素初始化为1;而torch.full()函数创建一个指定形状的张量,并将全部元素初始化为指定的值。 引用给出了一个使用torch.full()函数的例子,该例子创建了一个形状为(3,3)的张量,并将所有元素初始化为10。 根据引用的运行结果呢,torch.full((3,3),10)的输出结果是一个形状为(3,3)的张量,其中的所有元素都是10。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [pytorch张量创建与操作](https://download.csdn.net/download/weixin_38631049/14884241)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [PyTorch | torch.full()使用方法 | torch.full()如何使用? torch.full()例子说明 | 通过torch.full创建全...](https://blog.csdn.net/Sophia_11/article/details/112648136)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Wanderer001

ROIAlign原理

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值