pytorch的一些函数

1. torch.mul() 、 torch.mm() 及torch.matmul()

        torch.mul(a, b) 是矩阵a和b对应位相乘,a和b的维度必须相等,比如a的维度是(1, 2),b的维度是(1, 2),返回的仍是(1, 2)的矩阵;
        torch.mm(a, b) 是矩阵a和b矩阵相乘,比如a的维度是(1, 2),b的维度是(2, 3),返回的就是(1, 3)的矩阵。
        torch.bmm() 强制规定维度和大小相同。
        torch.matmul() 没有强制规定维度和大小,可以用利用广播机制进行不同维度的相乘操作。

2. nn.init.xavier_uniform_(tensor, gain)

        Xavier初始化方法的定义分布方法,具体用法可见 pytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization_墨氲的博客-CSDN博客_nn.init.normal_

3. torch.empty()

        创建一个使用未初始化值填满的tensor.

4. 创建张量的方法

        torch.tensor(a)torch.Tensor(a)torch.as_tensor(a)torch.from_numpy(a)

        其中,234中的tensor数据类型都会继承a的数据类型。34会和a共享内存,也就是改变a也会改变34创建的张量值。

5. x.view(n, m)

        view()的作用相当于numpy中的reshape,重新定义矩阵的形状。

        注意n*m要等于x中的元素个数。

        如果n或者m为-1,那就是根据另一位的数值,自动补齐这一个维数。

6. @staticmethod方法

        不实例化类的情况下直接访问该方法。

        正常我们使用类去实例化对象时会先走 init方法给对象进行初始化赋值。但是使用了staticmethod静态方法后可以直接使用 (类.对象或者类的实例.对象) 去调用被静态方法装饰后的函数,这个过程是不会走init这个方法的,简言之就是不会给对象进行赋值初始化。
        静态方法有助于优化代码结构和提高程序的可读性,把某些应该属于某个类的函数给放到那个类里去。也就是可以把被静态方法装饰的函数放在类的外面,这样在类里面可以调用该函数,但是这样对代码的结构以及可读性不太友好。

7. _的五种用法

        Python中的下划线(_)的五种用法_寰宇001的博客-CSDN博客_python 下划线函数

8. torch.ones_like(x)

        返回一个张量,维数和x一致,元素值全为1.

9. torch.where(condition, x, y)

        根据条件,返回从x,y中选择元素所组成的张量。如果满足条件,则返回x中元素。若不满足,返回y中元素。

10. torch.nn.functional.dropout(tensor, self.dropout, training=self.training)

        F.dropout 是一个函数,参数包含输入的tensor,概率和training 为真还是假。当training 是真的时候,才会将一部分元素置为0,其他元素会乘以 1/(1-p). training 为false的时候,dropout不起作用。默认情况下training是True。

        之所以要放大保留的元素,是为了是保留元素的均值和整体的均值一致。因为dropout的实质是将某些神经元的值变为零,但是,这些神经元对应的维度还是存在的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值