深度学习pytorch——统计属性(持续更新)

矩阵范数 vs 向量范数

向量范数

1-范数:所有元素的绝对值之和。

2-范数:所有元素的平方之和,在开根号。

p-范数:所有元素的绝对值的p次方之和,再求其1/p次方。

 例:向量X=[2, 3, -5, -7] ,求向量的1-范数,2-范数。

a = torch.full([8],1.)
print("1-范数:",a.norm(1))    # tensor(8.)
print("2-范数:",a.norm(2))    # tensor(2.8284)

矩阵范数

1-范数:所有元素的绝对值之和。

2-范数:所有元素的平方之和,在开根号。

p-范数:所有元素的绝对值的p次方之和,再求其1/p次方。

b=tensor([[1., 1., 1., 1.], [1., 1., 1., 1.]])

c=tensor([[[1., 1.], [1., 1.]],  [[1., 1.], [1., 1.]]])

print("1-范数:",b.norm(1),c.norm(1))  # tensor(8.) tensor(8.)
print("2-范数:",b.norm(2),c.norm(2))  # tensor(2.8284) tensor(2.8284)

在不同维度上求范数就是消除这个维度,比如我现在有一个shape为[3, 2, 2]的张量,如果我要在第一维度上求范数,最后结果的shape就变成了[2, 2]了,实行的操作就是对本维度上的元素进行求范数处理。比如我已知如下一个张量:

如果我在第0维度上求变量就是按红框中的元素进行处理:

最后的结果就是:[[12., 15.],[18., 21.]]

如果我在第一维度进行求范数,就是对第一维度上的元素对应求范数,如下图所示:

最后的就是:[[ 2., 4.],[10., 12.],[18., 20.]]

同理在第2维度求范数,就是在第二维度元素之间进行求范数操作:

结果就是:[[ 1.,  5.], [ 9., 13.], [17., 21.]]

均值、累加、最小值、最大值、累乘

这一类方法的实现都是先打平为1维的之后再求,最基本的用法就是tensorname.fun_name():

min()       # 求最小值
max()       # 求最大值
mean()      # 求均值
prod()      # 求累乘
sum()      # 求累加
argmax()   # 求最大值的下标
argmin()   # 求最小值的下标

接下来讨论扩展的用法:

1、在特定维度上

a = tensor([[-1.5277,  0.3629, -1.2216, -1.3514, -0.7660,  0.0864, -0.9250, -0.6203,
          0.1785,  1.0856],
        [-0.3962,  0.6123,  0.3432, -2.0344, -0.5936,  0.9861,  1.2098, -1.0271,
          0.5962,  1.5628],
        [ 0.0584, -0.7316, -0.7060,  1.3894, -0.3185,  1.4347,  0.6946, -0.5441,
         -2.1643, -0.3881],
        [-0.2978,  0.7211,  1.1158, -1.6303, -0.7265, -0.1060, -1.2778, -0.0575,
         -0.3458, -0.0525]])

print(a.max(dim=1))      # 在第一维度上最大值,并给出最大值所在的位置 torch.return_types.max(values=tensor([1.0856, 1.5628, 1.4347, 1.1158]),indices=tensor([9, 9, 5, 2]))
print(a.argmax(dim=1))   # tensor([9, 9, 5, 2])
print(a.max(dim=1,keepdim=True))  # keepdim是保持原来的维度,就是原来a是一个二维的张量,现在a也是个二维的张量,只是size改变了
print(a.argmax(dim=1,keepdim=True))

top-k

a.topk(3,dim=1)               # 求出a张量在一维上,前三大的元素
a.topk(3,dim=1,largest=False) # 求最小的三个
a.kthvalue(8,dim=1)           # 在第一维度上第八大的

比较

给定a1=tensor([[-0.1915, -0.1166, -0.3212],
                       [-1.4488,  0.9648, -2.3803],
                       [ 0.2105,  1.6176,  0.2730]])

1、使用运算符

这种情况就是将张量a中的每一个元素与0进行比较,如果大于零赋值为True,小于0赋值为False,最后返回一个3*3的张量,其它比较运算符同理,代码示例:

print(a1>0)

2、使用gt()方法

大于0的返回True,小于0的返回False,最后返回的是一个3*3的张量,代码示例:

print(torch.gt(a1,0))

3、使用eq()和equal()方法

a=torch.ones(2,3)
b=torch.randn(2,3)
 # 判断a和b是否相等,是一个元素一个元素进行对比,如果对应元素相等,则将对应的位置赋值为True,不等赋值为False,最后返回一个2*3的张量
print(torch.eq(a,b))
# 是直接判断两个张量是否相等,如果不相等直接返回一个False,相等则返回一个True   
print(torch.equal(a,b)) 

cc​​​​​​​pytorch求范数函数——torch.norm - 慢行厚积 - 博客园 (cnblogs.com)icon-default.png?t=N7T8https://www.cnblogs.com/wanghui-garcia/p/11266298.html#:~:text=pytorch%E6%B1%82%E8%8C%83%E6%95%B0%E5%87%BD%E6%95%B0%E2%80%94%E2%80%94torch.norm%201%20dim%20%28int%EF%BC%8C2-tuple%EF%BC%8C2-list%EF%BC%8C%20optional%29%3A%20%E6%8C%87%E5%AE%9A%E8%AE%A1%E7%AE%97%E7%9A%84%E7%BB%B4%E5%BA%A6%E3%80%82%20%E5%A6%82%E6%9E%9C%E6%98%AF%E4%B8%80%E4%B8%AA%E6%95%B4%E6%95%B0%E5%80%BC%EF%BC%8C%E5%90%91%E9%87%8F%E8%8C%83%E6%95%B0%E5%B0%86%E8%A2%AB%E8%AE%A1%E7%AE%97%EF%BC%9B%E5%A6%82%E6%9E%9C%E6%98%AF%E4%B8%80%E4%B8%AA%E5%A4%A7%E5%B0%8F%E4%B8%BA2%E7%9A%84%E5%85%83%E7%BB%84%EF%BC%8C%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%E5%B0%86%E8%A2%AB%E8%AE%A1%E7%AE%97%EF%BC%9B%E5%A6%82%E6%9E%9C%E4%B8%BANone%EF%BC%8C%E5%BD%93%E8%BE%93%E5%85%A5tensor%E5%8F%AA%E6%9C%89%E4%B8%A4%E7%BB%B4%E6%97%B6%E7%9F%A9%E9%98%B5%E8%AE%A1%E7%AE%97%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%EF%BC%9B%E5%BD%93%E8%BE%93%E5%85%A5%E5%8F%AA%E6%9C%89%E4%B8%80%E7%BB%B4%E6%97%B6%E5%88%99%E8%AE%A1%E7%AE%97%E5%90%91%E9%87%8F%E8%8C%83%E6%95%B0%E3%80%82%20...,3%20out%EF%BC%88Tensor%2C%20optional%EF%BC%89%3Atensor%E7%9A%84%E8%BE%93%E5%87%BA%E3%80%82%20%E5%A6%82%E6%9E%9Cdim%3DNone%E6%88%96out%3DNone%2C%E5%88%99%E5%BF%BD%E7%95%A5%E8%AF%A5%E5%8F%82%E6%95%B0%E3%80%82%204%20dtype%EF%BC%88torch.dtype%EF%BC%8Coptional%EF%BC%89%EF%BC%9A%E6%8C%87%E5%AE%9A%E8%BF%94%E5%9B%9Etensor%E7%9A%84%E6%9C%9F%E6%9C%9B%E6%95%B0%E6%8D%AE%E7%B1%BB%E5%9E%8B%E3%80%82%20%E5%A6%82%E6%9E%9C%E6%8C%87%E5%AE%9A%E4%BA%86%E8%AF%A5%E5%8F%82%E6%95%B0%EF%BC%8C%E5%9C%A8%E6%89%A7%E8%A1%8C%E8%AF%A5%E6%93%8D%E4%BD%9C%E6%97%B6%E8%BE%93%E5%85%A5tensor%E5%B0%86%E8%A2%AB%E8%BD%AC%E6%8D%A2%E6%88%90%20%3Aattr%3A%E2%80%99dtype%E2%80%99

  • 14
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值