nlp瞎搞工程师
码龄4年
关注
提问 私信
  • 博客:1,852
    1,852
    总访问量
  • 1
    原创
  • 1,188,248
    排名
  • 0
    粉丝
  • 0
    铁粉

个人简介:nlp,nlu,QA

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2021-01-10
博客简介:

m0_54484261的博客

查看详细资料
个人成就
  • 获得2次点赞
  • 内容获得0次评论
  • 获得10次收藏
创作历程
  • 1篇
    2021年
成就勋章
兴趣领域 设置
  • 人工智能
    深度学习神经网络自然语言处理tensorflowpytorchnlp
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

RuntimeError: CUDA out of memory. Tried to allocate XX.XX MiB. pytorch训练超出撑爆显存的问题

RuntimeError: CUDA out of memory. Tried to allocate XX.XX MiB. pytorch训练超出撑爆显存的问题1、batch_size设置过大这种比较好理解,就是单卡batch_size设置大了,数据量就大了,显存可能就放不下了。不过一般batch_size也不宜设置过小,不然如果batch里含有噪声数据其占比就会较大,对模型训练影响就比较大,有时就会把模型训飞了(亲身经历)。如果batch_size已经调的较小了还是爆了显存,可能就是别的问题了,接
原创
发布博客 2021.04.16 ·
1853 阅读 ·
2 点赞 ·
0 评论 ·
9 收藏