自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 365天深度学习N2心得体会

可以将text_pipeline和label_pipeline看成是一个函数,第一个是将语句转化成对应的vocab数字词典索引,第二个是将标签转化为对应的标签列表索引,也就是两者都是将各自的内容输入,输出数字组和索引。example=vocab(['我','想','看','和平','精英','上','战神','必备','技巧','的','游戏','视频'])#specials=['<unk>']可以理解为字典中没有的词,用unk进行标记,此时的vocab可以理解为将单词转化为数字。

2023-08-04 20:54:24 86 1

原创 365天深度学习n1心得体会

7from torchtext.data.functional import to_map_style_dataset,将迭代式数据集转化为映射式数据集,相当于从前是直接访问数据集,现在是根据索引,访问对应的数据集。4self.embedding.weight (vocab_size,embedding_dim)词嵌入层的权重矩阵,vocab_size词汇表大小,embedding_dim嵌入向量的维度。5self.embedding.weight.data表示权重矩阵的值。

2023-07-21 23:04:51 104 1

原创 365天深度学习P9学习心得体会

最后我来评价一下这张图,首先泛化性能不错,不存在过拟合,然后可能是因为学习率固定的关系,所以导致损失这一块,有一个大幅度的起伏,总体趋势还是收敛的,模型效果不错,只不过我用的batch_size有点小,而数值大一点,效果就会差很多,目前这一块,没有想通,反正我对这个代码进行了一定的修改和创新,但是最关键的yolo,我还是没有彻底学好,感觉不是朝夕就能搞定,还需要花费更多时间,进一步去理解,主要是层数太多,又经过各种变换,我短时间搞不定。

2023-07-14 22:58:19 114 1

原创 365天深度学习训练营P8天气识别心得体会

print('设定训练集和测试集大小,用random_split对total_data进行粗浅切割,要求变成[train_size,test_size]这样一个款式,也就是训练集和测试集4:1')print('此时我可以这么说,是先有class Conv,再有class Bottleneck,再有class C3,最后有class model_K,一层层嵌套,至于为何这么做,还不清楚')根据文件名,输出类别 ['cloudy', 'rain', 'shine', 'sunrise']

2023-07-04 20:31:22 97

原创 365天深度学习训练营p7咖啡豆识别心得体会

刚开始进行代码调试的时候,我会将epochs设置等于1,进行排查错误,将报错的内容一一修改,等没有错误之后,在将epochs改大。后话,我对于这个结果挺满意的,之前我真的以为vgg16为啥效果这么差,现在一看,我还是不够了解,没有过拟合,损失也降到最低。#早的时候,我会将epoch设置成40,认为次数多,效果就会好,后来发现,很多时候,迭代很多次,也只是在那个范围徘徊罢了。#这相当于是第二步,数据预处理,将图片数据处理成对应的数据格式,经过各种变化,生成总体样本集。#写错了,将ReLU,写成了ReLU。

2023-06-27 23:01:01 70 1

原创 365天深度学习训练营第p6周好莱坞明星识别心得体会

print('犯了一个错误,将0.8放在外面*int,结果train_size就是一个浮点数,从而影响了下面的数据切割,一定要将0.8放在里面,这样train_size就是一个整数')print('看一下模型什么样子,由features,avgpool,classifier三个阶段,这里看一下classifier的最后一层也就是第六层,输出为1000')print('地址中,可能用\表示地址的路线,但是当我们要将其进行分裂的时候,挑出最后的文件名的时候,要用两个\表示\,这个是windows的要求')

2023-06-18 14:58:20 70

原创 深度学习365天之P5运动鞋识别心得体会

print('SHAPE OF X[N,C,H,W]:',X.shape)#SHAPE OF X[N,C,H,W]: torch.Size([76, 3, 224, 224]),四维图片数据(N, C, H, W)分别表示(数量,色道,高,宽)print(data_paths)#[WindowsPath('D:/BaiduNetdiskDownload/深度学习p5/test'), WindowsPath('D:/BaiduNetdiskDownload/深度学习p5/train')]

2023-06-12 23:06:08 65

原创 365天深度学习训练营-第P4周:猴痘识别心得体会

我遇到了问题,那就是过拟合严重,准确率不高

2023-06-06 22:01:08 104

原创 365天深度学习训练营-第P3周:天气识别心得体会

torch.utils.data.random_split可以认为是图像数据集的切分,其中第一个参数为根目录,第二个和第三个参数用列表表示,表示设置的训练集大小和测试集大小,此时训练集和验证集已经生成。#compose可以理解为一个预处理包,将所有步骤都合并在一起,第一步,重新调整大小,第二步,转化成tensor格式,第三步,批量归一化,均值为多少,方差为多少。#这上面的一步with ,我差点就忘记写了,以为直接是for,实际上是告诉我,for中的操作都是建立在没有没有优化器的基础之上的。

2023-05-29 19:00:07 93 1

原创 365天深度学习训练营-第P2周:彩色图片识别心得体会

用torch.utils.data.DataLoader构建带有批次的数据集,相当于把之前一大块数据缕了一下,改成一批批的,但是要求训练集对数据要进行打乱,也就是给模型训练增加难度,让模型泛化能力强,适应复杂情况,测试集不用,毕竟只是验证模型的性能是否可以。#上面是启用torchvision.datasets.CIFAR10,也就是加载里面的数据集中的CIFAR10,里面主要是将数据内容转化成torch常用的格式tensor,因为数据集我没有,选择下载,但是测试集不用训练。

2023-05-26 17:22:13 82 1

原创 第P1周:实现mnist手写数字识别,我的练习心得

train_acc +=(pred.argmax(1)==y).type(torch.float).sum().item()#type(torch.float)将类型改为tensor的浮点型,pred.argmax(1)表示输出概率最大的pred。在训练过程中,通常需要将训练数据分成多个批次进行处理,可以使用 next(iter()) 操作从数据集迭代器中获取每个批次的数据。nping=np.squeeze(imgs.numpy())#将矩阵中维度为1的去掉,从(1, 28, 28)变成(28, 28)

2023-05-15 21:48:54 170

原创 打卡任务一

任务一打卡

2022-08-12 21:13:29 158

转载 任务五,继续打卡

继续打卡任务五

2022-07-05 06:57:21 74

原创 继续任务四打卡

继续任务四打开

2022-07-04 17:45:07 276

原创 任务三,打卡

开始大力完成任务三

2022-07-03 17:05:38 326

原创 继续完成任务2

观察数据,进行简单的数据处理

2022-07-03 11:26:22 81

原创 第二天任务二打卡

完成任务二,尽自己的能力,比较外行

2022-06-29 22:54:56 119

原创 2022.06.28打卡1

参加竞赛学习任务第一天

2022-06-28 22:07:23 251 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除