读论文,写代码
平时看论文,写代码
东皇太一在此
这个人很懒,但还是写了一句话。
展开
-
Analogous loss
Analogous loss” 在机器学习中是一个有用的概念,它允许研究人员和工程师根据特定的应用需求调整或优化损失函数。通过理解和应用这种类型的损失函数,可以在特定的数据和任务约束下实现更优的模型性能。原创 2024-04-23 13:27:08 · 261 阅读 · 0 评论 -
弄懂论文里面数学公式到底在干什么?-chatpdf
chatpdf 虽然是个人工智障,但用好的也是一个非常不错的助手;我看不懂Hnt是什么意思,我这样问他:用big H指代它;(1) 我问它,它这样回答:Fk∑xyfkxyfkxyMcxy∑kwkcfkxywkc(前面几个公式我修正了一点,它原来显示没有这么漂亮)非常棒,解决了我的问题,主要还是要靠提问技巧:我又这样问它:(2)(3)原创 2023-12-21 16:48:45 · 53 阅读 · 0 评论 -
多维度Tensor的求和含义理解
所以这里求和是把每一个channel当作独立的,对这么多channel(2048)进行求和,所以求和结果其余维度保持不变,是torch.size([1, 7, 7]);其中,activation : torch.size([1, 2048, 7, 7]),weight : torch.size([1, 2048, 1, 1]),还有一个问题,为什么weight后面的形状是[1, 1],也可以和之前activation的[7, 7]来相乘;原创 2023-12-16 16:11:17 · 70 阅读 · 0 评论 -
Pytorch-gpu环境篇
最最最头疼的就是配环境了。原创 2023-11-27 11:55:21 · 240 阅读 · 1 评论 -
CAM-Classification activation map 类激活图玩耍指南
该项目把代码打包成为了一个库,我们可以直接调用;这是上面那个项目的文档说明;原创 2023-11-27 11:45:38 · 176 阅读 · 0 评论 -
Jupyter运行显存爆炸,明明上一个单元格已经运行完毕为什么还是会炸?
上一个单元格运行完了train(),我想要用模型输出做点东西,可是提醒我显存不够;在命令行中查看显存占用情况,发现4张卡都占满了,可真是太厉害了!原创 2023-11-15 22:15:51 · 160 阅读 · 0 评论 -
使用model.module保存模型参数
之前训练的很好的model(mAP=80)保存之后,在另一个文件里加载,结果效果很差劲(mAP=3);原创 2023-11-11 18:23:00 · 144 阅读 · 0 评论 -
如何快速找到项目里是怎样计算loss的
学习实际项目,比如论文里附带的代码,是很好的学习方式,比单单看Pytorch教程要强!原创 2023-11-08 19:17:37 · 74 阅读 · 0 评论 -
用什么形式的变量读取dataloader,`for i, ((inputs_w, inputs_s), targets) in enumerate(train_loader)`括号里到底怎么写
`for i, ((inputs_w, inputs_s), targets) in enumerate(train_loader)`左边有很多括号,到底怎么写去接受train_loader会合理呢?原创 2023-11-08 16:08:05 · 510 阅读 · 0 评论 -
Pretrained 预训练模型的加载与使用,为什么可以把不相关的模型用过来?
确实可以用,有人写了论文证明为什么可以用;先看正常的模型加载(),同样的模型保存,再用同样的模型加载;原创 2023-11-08 09:18:44 · 78 阅读 · 0 评论 -
读CV论文的时候,遇到的不认识词汇
读CV论文的时候,遇到的不认识专业词汇。原创 2023-10-30 10:06:17 · 71 阅读 · 0 评论 -
如何读懂深度学习python项目,以`Multi-label learning from single positive label`为例
读代码的时候先以函数为单位梳理逻辑链条,再多抄几遍代码,最后运行并调试几遍。原创 2023-10-31 11:04:40 · 286 阅读 · 0 评论 -
如何读懂深度学习项目python代码-慢慢调试
教你怎么理解深度学习项目Python代码,以`Multi-label learning from single positive label`为例;原创 2023-10-31 15:09:12 · 356 阅读 · 0 评论 -
如何运行深度学习项目代码
运行项目代码是第一步哦!原创 2023-10-31 21:09:16 · 281 阅读 · 0 评论