读论文,写代码
平时看论文,写代码
初梦语雪
自古名将如美人,不许人间见白头。
展开
-
hydra架构分析
介绍hydra这个框架原创 2024-12-19 22:50:04 · 91 阅读 · 0 评论 -
Vscode终端保存信息有限
在 VSCode 的终端中,有时候向上翻记录会停在一个地方,看不到更早的信息,这是因为终端的**缓冲区(buffer size)**有限。默认情况下,终端只会保留一定数量的历史输出记录。如果你正在使用 Linux/Mac 或 Windows 的 WSL 终端,可以使用。原创 2024-12-14 16:46:03 · 314 阅读 · 0 评论 -
Flexmatch 关于英文文本阅读引发误差的思考
这句话:FlexMatch uses the same loss term with a dynamic threshold。结果是Flexmatch只继承了Fixmatch的loss,动态阈值是它自己的提出来的,Fixmatch本来没有;我读的时候以为是Fixmatch原来有一个loss,也有一个动态阈值,Flexmatch再把它们都继承过来了;好吧,英文阅读很难,一般把他翻译成中文我也不懂;原创 2024-11-28 22:17:51 · 205 阅读 · 0 评论 -
安装CLIP
我在服务器上,就从来没有用git成功过的经历,估计是数据比较大;那我先从github上下载到本地上,再传到服务器上,解压缩后,来到根目录下,,即有setup.py完事啦!原创 2024-11-19 11:16:14 · 344 阅读 · 0 评论 -
[Debug] Could not load library libcudnn_cnn_infer.so.8. Error: libcuda.so: cannot open shared object
(3) 在哪里找这些数据也已经在。使用这个命令,因为我的环境下。报错信息很多:一部分如下。预训练数据下载好了;原创 2024-11-18 16:54:12 · 342 阅读 · 0 评论 -
CLIP学习
学的是github官方给的教程注意:我运行程序遇到了很多问题。原创 2024-11-15 18:16:26 · 195 阅读 · 0 评论 -
[deBug] A module that was compiled using NumPy 1.x cannot be run in NumPy 2.0.2 as it may crash.
那么就卸载原来的高版本numpy,重新下载低版本的完事!numpy总是和其他包相冲突,因为numpy很早就有了,大家用的时候版本还很低,所以会和其他比较新的包冲突。原创 2024-11-15 16:35:02 · 292 阅读 · 0 评论 -
找到一篇文章是发表在什么等级的会议上
就这样。原创 2024-11-13 12:19:17 · 161 阅读 · 0 评论 -
CVPR之workshop是什么
是附属于主会的一些研究热点的专题研讨会,而且是独立审稿的。质量比主会要低一些,但是有特别的价值,最大的价值是搞一些比赛。原创 2024-11-12 22:55:02 · 210 阅读 · 0 评论 -
chatgpt4o可以通过截图阅读论文公式
买了chatgpt4之后,可以截图传给它让它读论文,顺带解析公式和图表。前沿论文没有问题,分析的有理有据,如果不够深入,请继续上传更多背景知识。原创 2024-09-06 08:59:05 · 149 阅读 · 0 评论 -
from `Semantic Segmentation` to `Image Classificatin`
将semantic segmentation用在image classification上的好想法。原创 2024-07-08 15:41:15 · 95 阅读 · 0 评论 -
Consistency Learning 人话理解
把相似的样本拉的越近越好,不同的样本越远越好!原创 2024-07-05 17:01:32 · 243 阅读 · 0 评论 -
Analogous loss
Analogous loss” 在机器学习中是一个有用的概念,它允许研究人员和工程师根据特定的应用需求调整或优化损失函数。通过理解和应用这种类型的损失函数,可以在特定的数据和任务约束下实现更优的模型性能。原创 2024-04-23 13:27:08 · 311 阅读 · 0 评论 -
Chatpdf协助理解论文数学公式
chatpdf 虽然是个人工智障,但用好的也是一个非常不错的助手;我看不懂Hnt是什么意思,我这样问他:用big H指代它;(1) 我问它,它这样回答:Fk∑xyfkxyfkxyMcxy∑kwkcfkxywkc(前面几个公式我修正了一点,它原来显示没有这么漂亮)非常棒,解决了我的问题,主要还是要靠提问技巧:我又这样问它:(2)(3)原创 2023-12-21 16:48:45 · 1077 阅读 · 0 评论 -
多维度Tensor的求和含义理解
所以这里求和是把每一个channel当作独立的,对这么多channel(2048)进行求和,所以求和结果其余维度保持不变,是torch.size([1, 7, 7]);其中,activation : torch.size([1, 2048, 7, 7]),weight : torch.size([1, 2048, 1, 1]),还有一个问题,为什么weight后面的形状是[1, 1],也可以和之前activation的[7, 7]来相乘;原创 2023-12-16 16:11:17 · 134 阅读 · 0 评论 -
Pytorch-gpu环境篇
最最最头疼的就是配环境了。原创 2023-11-27 11:55:21 · 3594 阅读 · 1 评论 -
CAM-Classification activation map 类激活图玩耍指南
该项目把代码打包成为了一个库,我们可以直接调用;这是上面那个项目的文档说明;原创 2023-11-27 11:45:38 · 385 阅读 · 0 评论 -
Jupyter运行显存爆炸,明明上一个单元格已经运行完毕为什么还是会炸?
上一个单元格运行完了train(),我想要用模型输出做点东西,可是提醒我显存不够;在命令行中查看显存占用情况,发现4张卡都占满了,可真是太厉害了!原创 2023-11-15 22:15:51 · 309 阅读 · 0 评论 -
使用model.module保存模型参数
之前训练的很好的model(mAP=80)保存之后,在另一个文件里加载,结果效果很差劲(mAP=3);原创 2023-11-11 18:23:00 · 226 阅读 · 0 评论 -
如何快速找到项目里是怎样计算loss的
学习实际项目,比如论文里附带的代码,是很好的学习方式,比单单看Pytorch教程要强!原创 2023-11-08 19:17:37 · 113 阅读 · 0 评论 -
用什么形式的变量读取dataloader,`for i, ((inputs_w, inputs_s), targets) in enumerate(train_loader)`括号里到底怎么写
`for i, ((inputs_w, inputs_s), targets) in enumerate(train_loader)`左边有很多括号,到底怎么写去接受train_loader会合理呢?原创 2023-11-08 16:08:05 · 579 阅读 · 0 评论 -
Pretrained 预训练模型的加载与使用,为什么可以把不相关的模型用过来?
确实可以用,有人写了论文证明为什么可以用;先看正常的模型加载(),同样的模型保存,再用同样的模型加载;原创 2023-11-08 09:18:44 · 135 阅读 · 0 评论 -
读CV论文的时候,遇到的不认识词汇
读CV论文的时候,遇到的不认识专业词汇。原创 2023-10-30 10:06:17 · 103 阅读 · 0 评论 -
如何读懂深度学习python项目,以`Multi-label learning from single positive label`为例
读代码的时候先以函数为单位梳理逻辑链条,再多抄几遍代码,最后运行并调试几遍。原创 2023-10-31 11:04:40 · 354 阅读 · 0 评论 -
如何读懂深度学习项目python代码-慢慢调试
教你怎么理解深度学习项目Python代码,以`Multi-label learning from single positive label`为例;原创 2023-10-31 15:09:12 · 441 阅读 · 0 评论 -
如何运行深度学习项目代码
运行项目代码是第一步哦!原创 2023-10-31 21:09:16 · 449 阅读 · 0 评论