[PyTroch系列-8]:PyTorch基础 - 张量的取整运算

作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119429253


目录

 第1 章 Tensor运算概述

1.1 概述

1.3  “in place“运算 

1.4 Tensor的广播机制: 不同维度的tensor实例运算

1.5 环境准备

1.6 取整运算概述

第2章 向下取整:floor()

第3章 向上取整:ceil()

第4章 四舍五入的函数:around() 

第5章 裁剪取整数部分:trunc()

第6章 取小数部分:frac()

第7章 取余数运算:remainder()


 第1 章 Tensor运算概述

1.1 概述

PyTorch提供了大量的张量运算,基本上可以对标Numpy多维数组的运算,以支持对张量的各种复杂的运算。

这些操作运算中大多是对数组中每个元素执行相同的函数运算,并获得每个元素函数运算的结果序列,这些序列生成一个新的同维度的数组。

https://pytorch.org/docs/master/torch.html

1.2 运算分类

(1)算术运算:加、减、系数乘、系数除

(2)函数运算:sin,cos

(3)取整运算:上取整、下取整

(4)统计运算:最大值、最小值、均值

(5)线性代数运算:矩阵、点乘、叉乘

1.3  “in place“运算 

“in place“运算不是某个特定的函数运算,而是每个函数都有自己的“in place“运算的版本。

xxx_():执行完该操作,直接修改tensor自身的值。

基本上,每个函数都有自己的in place版本。

torch.cos() =》torch.cos_()

torch.floor() =》torch.floor_()

1.4 Tensor的广播机制: 不同维度的tensor实例运算

1.5 环境准备

import numpy as np
import torch
 
print("Hello World")
print(torch.__version__)
print(torch.cuda.is_available())

1.6 取整运算概述

第2章 向下取整:floor()

floor() 返回小于或者等于指定表达式的最大整数,即向取整,即小于该数的、与该数最接近的整数。

#实例

a = torch.Tensor([0.24, 1.0, 2.1,  3, 4.55])  
print  ('原数组:')
print (a)
print ('\n')

print ('运算后:')
print (torch.floor(a))
#输出结果为:

原数组:
tensor([0.2400, 1.0000, 2.1000, 3.0000, 4.5500])


运算后:
tensor([0., 1., 2., 3., 4.])

第3章 向上取整:ceil()

ceil() 返回大于或者等于指定表达式的最小整数,即向上取整。

#实例

a = torch.Tensor([0.24, 1.0, 2.1,  3, 4.55])  
print  ('原数组:')
print (a)
print ('\n')

print ('运算后:')
print (torch.ceil(a)) 
#输出结果为:

原数组:
tensor([0.2400, 1.0000, 2.1000, 3.0000, 4.5500])


运算后:
tensor([1., 1., 3., 3., 5.])

第4章 四舍五入的函数:around() 

around() 函数返回指定数字的四舍五入值。

#实例

a = torch.Tensor([0.24, 1.0, 2.1,  3, 4.55])  
print  ('原数组:')
print (a)
print ('\n')

print ('运算后:')
print (torch.round(a)) 
#输出结果为:

原数组:
tensor([0.2400, 1.0000, 2.1000, 3.0000, 4.5500])


运算后:
tensor([0., 1., 2., 3., 5.])

第5章 裁剪取整数部分:trunc()

trunc() 函数返回指定数字的整数部分

a = torch.Tensor([0.24, 1.0, 2.1,  3, 4.55])  
print  ('原数组:')
print (a)
print ('\n')

print ('运算后:')
print (torch.trunc(a)) 
#输出结果:

原数组:
tensor([0.2400, 1.0000, 2.1000, 3.0000, 4.5500])


运算后:
tensor([0., 1., 2., 3., 4.])

第6章 取小数部分:frac()

frac() 函数返回指定数字的分数

a = torch.Tensor([0.24, 1.0, 2.1,  3, 4.55])  
print  ('原数组:')
print (a)
print ('\n')

print ('运算后:')
print (torch.frac(a)) 
输出结果:

原数组:
tensor([0.2400, 1.0000, 2.1000, 3.0000, 4.5500])


运算后:
tensor([0.2400, 0.0000, 0.1000, 0.0000, 0.5500])

第7章 取余数运算:remainder()

numpy.mod() 计算输入数组中相应元素的相除后的余数

函数 numpy.remainder() 也产生相同的结果。

实例

a = torch.Tensor([10,10,10,10,10])
b = torch.Tensor([1,2,3,4,5])
print("原数据a")
print(a)
print("原数据b")
print(b)

#导数运算
print("运算后数据")
print(a%b)
print(torch.remainder(a,b))
print(a.remainder(b))

print("原数据a")
print (a)
输出结果为:

原数据a
tensor([10., 10., 10., 10., 10.])
原数据b
tensor([1., 2., 3., 4., 5.])
运算后数据
tensor([0., 0., 1., 2., 0.])
tensor([0., 0., 1., 2., 0.])
tensor([0., 0., 1., 2., 0.])
原数据a
tensor([10., 10., 10., 10., 10.])

作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119429253

  • 6
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
PyTorch提供了丰富的张量算术运算,可以对张量进行各种复杂的运算。你可以使用PyTorch的算术函数来执行加法、减法、乘法和除法操作。例如,你可以使用add()函数执行张量的加法运算,subtract()函数执行减法运算,multiply()函数执行乘法运算,divide()函数执行除法运算。 此外,PyTorch还支持复杂数的算术运算,通过安装"pytorch-complex-tensor"库,你可以使用该库中提供的ComplexTensor类来进行复杂数的模拟算术运算,该库支持渐变。你可以使用ComplexTensor类来创建初始张量,并在其中执行复杂的算术运算。 下面是一个使用PyTorch进行张量算术运算的例子: ``` import torch # 创建两个张量 a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # 执行加法运算 c = torch.add(a, b) # 执行减法运算 d = torch.subtract(a, b) # 执行乘法运算 e = torch.multiply(a, b) # 执行除法运算 f = torch.divide(a, b) # 输出结果 print(c) # tensor([5, 7, 9]) print(d) # tensor([-3, -3, -3]) print(e) # tensor([4, 10, 18]) print(f) # tensor([0.25, 0.4, 0.5]) ``` 通过使用PyTorch张量算术运算,你可以对张量进行各种复杂的运算,并得到所需的结果。 <span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [[PyTroch系列-7]:PyTorch基础 - 张量的算术运算](https://blog.csdn.net/HiWangWenBing/article/details/119428023)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [pytorch-complex-tensor:Pytorch的非官方复张量和标量支持](https://download.csdn.net/download/weixin_42128537/18698908)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

文火冰糖的硅基工坊

你的鼓励是我前进的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值