数据预处理,线代

数据预处理作业---去除缺失值最多的列

data = data.drop(pd.isna(data).sum(axis=0).idxmax(), axis=1)

具体为

def drop_col(m):
num = m.isna().sum() #获得缺失值统计信息
num_dict = num.to_dict() #转为字典
max_key =max(num_dict,key=num_dict.get) #取字典中最大值的键
del m[max_key] #删除缺失值最多的列
return m

drop_col(data)

线性代数

len()函数---[访问张量的长度]

if  A.shape=torch.Size([2, 3, 4])  =>  len(A)=2

降维求和,平均

按行列求和---A.sum(axis=0),B.sum(axis=1)

                      A.mean(axis=0),B.mean(axis=1)

A.sum(axis=[0,1,2])=A.sum()#在轴0,1,2上求和

非降维求和

A.sum(axis=1,keepdims=True) #可以保持轴数,方便之后通过广播处理A

点积

torch.sum(x*y)#x,y为向量

矩阵向量积

矩阵A和向量x调用torch.mv(A, x)时,会执行矩阵‐向量积。注意,A的列维数(沿轴1的长度)必须与x的维数(其长度)相同

矩阵乘法

torch.mm(A, B)

范数

一般范数

L2范数---torch.norm(u)#根下平方值和

L1范数---orch.abs(u).sum()#绝对值和

F范数

torch.norm(torch.ones((4, 9)))

在深度学习中,我们经常试图解决优化问题:最大化分配给观测数据的概率; 最小化预测和真实观测之间的 距离。用向量表示物品(如单词、产品或新闻文章),以便最小化相似项目之间的距离,最大化不同项目之间 的距离。目标,或许是深度学习算法最重要的组成部分(除了数据),通常被表达为范数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

菜鸡不叫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值