pytorch

机器学习:需要人工提供特征,数据量少
深度学习:自动挖掘特征,数据量大

dataset与dataloader
首先需要将自己的数据封装成dataset,也就是实现init,len,和getitem的方法,这里需要注意getitem返回的是一个data,label的tuple。这里注意由于batchsize的限制最后一次大小不确定,可以使用dataloader的drop_last参数
dataloader可以读取dataset的数据
forward:需要在init里预先定义好参数,这是死的,数据的大小是灵活的,可以用x[0].shape来动态设置。

优化器:w = w + lr*a,就是对这一部分做修改,在每次loss反向传播后优化更新规则。

编码用sin cos是可以反应周期性
transform多头是指将qk分成多个方便GPU并行计算
ln和bn的区别一个纵向一个横向
在这里插入图片描述

torch版本与cuda对应关系
查看cuda版本
nvidia-smi
查找对应torch版本
https://pytorch.org/get-started/previous-versions/

torch.load pt时需要在项目的本地,有很多Model.py路径等也被存进去了
解决方式sys.path.append(’/home/yangkun/xm/THAT-main’)

创建dataloader新步骤
详情见center.py
1.生成npy
2.randomsplit
3.转换成torch
4. Data.TensorDataset(train_x, train_y)
5. trainloader = torch.utils.data.DataLoader(
trainloader, batch_size=args.batch_size, shuffle=True,
num_workers=4, pin_memory=True,
)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值