- 博客(3)
- 收藏
- 关注
原创 2.3 线性代数
axis=0把最外层的括号取消掉,对应位置加和,axis=1,把第二层括号取消掉,对应位置加和,A.sum(axis=[0, 1]),内置元素,keepdims=True保持原来的矩阵维度。返回维度与原来一直,在axis方向上,某个位置的值为该位置与之前位置的和的叠加。,一个矩阵乘以任意一个行向量和列向量都是大于零的。torch.norm(),所有元素平方和的开方,B=A.clone()是深拷贝,B=A是浅拷贝。,两个矩阵的按元素乘法,,为所有位置对应乘积的和。是创建一个新的对象,
2023-04-22 19:13:07
49
原创 2.2 数据预处理
其符号位占1位,指数位占11位,尾数位占52位,其中1位是隐含位,可以表示±1到±2^1023范围内的数,其符号位占1位,指数位占8位,尾数位占23位,其中1位是隐含位,可以表示±1到±2^127范围内的数,,将文件夹的上层路径和data组成一个新的路径,允许不同系统的操作符,在windows中,是反斜杠表示分隔,macos和linux系统是利用正斜杠表示分隔。,如果是True不会抛出异常,直接返回,如果是False会抛出异常。,选取所有行,12列,作为模型的输入特征,最后一列作为输出特征。
2023-04-20 22:29:04
287
1
原创 2.1 数据操作
在某一维度连接两个张量。3.a.item(),如果A是torch只能取出一个。7.只有大小为1的张量能够转换为Python标量。4.x.numel(),表示x内元素的数量。2.内存地址的改变,对应浅拷贝和深拷贝。randn表示正态分布。rand表示均匀分布。
2023-04-20 15:08:22
41
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人