- 博客(11)
- 收藏
- 关注
原创 07.08-07.013第28周已完成
开始每天三小时学习第一小时:补python基础。55-59课if选择,for,while循环,可迭代对象非常灵活第二个小时:实战构建简单的神经网络作用:将连续的维度范围展平为张量。经常在nn.Sequential()中出现,一般写在某个神经网络模型之后,用于对神经网络模型的输出进行处理,得到tensor类型的数据。注意是从开始的,也就是第二个维度而torch.flatten()是从开始的。
2024-07-15 16:23:34
866
原创 06.03-06.09第23周已完成
最近在b站上看了兄弟的誓言,突然觉得能安安静静、朴素的活着,有机会学学写代码很幸福了。这周科研目标是找到winograd成熟的项目,然后做自己实验。这周玩了四天,结束了。
2024-06-10 16:49:38
87
原创 神经网络代码从零开始
主要学习:1.搭建神经网络;3.在前向传播中使用定义过的函数;4.构建自己的神经网络;7.在# 4.构建自己的神经网络 处插入损失函数,在主函数中执行损失函数。6.使用Sequential把神经网络中的各层写到一起,简化书写。8.在# 4.构建自己的神经网络 处插入优化函数,在主函数中执行。如何在pytorch中搭建神经网络。8.2.梯度反向传播。
2024-06-05 16:46:37
329
原创 05.06-05.12第十九周已完成
看了SPPnet,发现有点像是一个即插即用的模块。spatial pyramid pooling空间金字塔池化。1.实现了不同尺寸的图片输入(因为fc层的参数数量固定,所以修改池化层就可以达到目的了)2.可以进行不同尺度的池化,减少过拟合风险,把不同尺度池化后的图片拼在了一起。开始看经典论文讲解,RCNN,先粗略过了一遍。消融试验:ablation study。
2024-06-05 16:45:55
267
原创 03.18-03.24 04.08-04.14第十二、十五周已完成(没有第十一、十三和十四周)
每一个神经元都是两部分:加权求和和激活函数。激活函数就是relu函数。可以看上边链接里的图。常见的距离计算方式:闵可夫斯基距离;欧式距离/欧几里得距离;方法论:04.13看了larry老师视频:如何调参。看了../ / \ \\ /// ~的区别,这篇是我觉得讲的比较好的。常见的相似度函数:余弦相似度;找了个免费gpt在线网站,准备开始缝合模块了。单层感知机:只能处理超平面线性可分的数据集。提出了辞职,准备一心搞科研。突然发现自己对召回率的理解不对:(~:其实就是用户根目录。
2024-04-19 15:36:19
196
1
原创 03.11-03.17第十周已完成
看第一节,居然是2017年尚学堂.百战程序员高淇老师的课,现在都2024年了,🤮。开始看B站Larry同学视频,不知道他的谷歌学术为啥可以标出来文章是几区的。CMD可以退出当前运行程序 exit(),CTRL+Z也可以。解释了为啥CMD里运行python会warning。主要学习了IDLE交互模式使用。学了turtle部分语法。在艾学无忧上买了辅导课。
2024-03-17 14:53:46
359
原创 03.04-03.10第十周已完成(没有第九周)
下载数据集时报:TypeError: default_collate: batch must contain tensors, numpy arrays, numbers, dicts or lists found。研究了啥是EI工程索引,在哪里查,研究了scopus数据库,顺便注册了。我发的scopus居然是四区,也没被EI收录。学习了咋做github个人主页,自己笨比,在about里边的前八行不要删掉,应该是涉及到引用了,结果自己删掉搞了两天。写的很好,但时间有点早了。深度学习保姆级入门教程。
2024-03-13 02:58:00
519
原创 02.26-03.03第九周已完成
AttributeError: module 'cv2.cv2' has no attribute 'ximgproc'解决。torch分为gpu版本和cpu版本,要装对应的torch和torchvision包。看了什么是消融试验,因为唐老师说做目标检测时,找离谱一些的模块,做三到四个(ps:唐老师还说,可以自己在kaggle上找数据集自己标注,算自己的数据集。找到在哪里切换github上的代码版本。怎么根据requirement安装包。找到在哪里下载火焰数据集。labelimg闪退。
2024-03-03 20:21:39
608
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人