李哥24考研复试项目-深度学习
文章平均质量分 79
李哥24考研复试项目-深度学习
m0_61346642
这个作者很懒,什么都没留下…
展开
-
2024-3-6 Bert模型代码总结
4. 前向过程函数:将我们的文本输入分词器,分词器的几个参数的意思是:传入的文本,返回为张量,允许截断,最大长度为128,padding成128,即不够的填充,多余的截断,得到Bert需要的三类输入,但其实返回的是一个字典,我们从字典中取出输入,并放在gpu上,然后传入Bert中,得到两种输出,分别是未池化和池化后的,我们只要池化之后的,所谓池化在这里只是取第一个token,然后将这个token通过我们的分类头,得到输出。9. 训练流程和之前的训练流程一样,超参数的定义省略。接下来是main函数里的。原创 2024-03-06 22:19:30 · 464 阅读 · 1 评论 -
2024-3-1食物分类代码优化总结——迁移学习、半监督等
11. 训练函数,也就是说,我们开始训练流程后,若满足上一条的要求,将会调用get_semi_loader来获得semi_loader,在get_semi_loader中又会定义一个semi的Dataset,返回一个类对象,这个类对象的初始化中,就调用了data_pred,将符合要求的数据筛选出来,同时,get_semi_loader中又定义了semi的Dataloader,并返回这个loader,用于在训练流程中取数据。半监督学习即用有标签的数据,和通过我们设定标准准确率的无标签的数据进行训练。原创 2024-03-02 15:01:41 · 925 阅读 · 0 评论 -
2024-2-29食物分类实战代码总结
之后初始化两个零矩阵,xi存储取出来的图片信息,yi用来存储取出的类型信息,j为图片名在列表中的下标,each为其图片名,再用字符串相加的方式将文件夹名与图片名相加得到地址,用函数将图片读到img中,此时图片为512*512,要将其改变大小,变为我们需要的224*224,将图片信息存储到xi中,xi第一个参数为个数/下标,后面的参数可代表图片信息,图片信息为224*224*3所以用代码表示方式,…14. 开始训练,每一轮都要定义该轮的训练和验证的loss,acc,还要记录此轮开始的时间。原创 2024-03-01 20:55:14 · 944 阅读 · 0 评论 -
2024-2-26 Covid预测项目改进代码总结
自己编写一个mseLoss函数,loss即nn的均方差loss函数,定义一个正则项,以下原理解释来自chatgpt:在反向传播过程中,梯度下降算法不仅要考虑原始损失函数的梯度,还要考虑正则化项的梯度。这导致在更新模型参数时,大的参数将受到更大的惩罚,从而限制了模型参数的增长。在初始化中增加if语句,如果要选中所有特征,col idx为所有列(此时已去除第一列),否则选出k列,使用选择函数时,传入参数feature为data的第一列到倒数第二列,label为最后一列,k为初试的维度,column为第一行。原创 2024-02-26 20:36:56 · 418 阅读 · 0 评论 -
2024-2-25 Covid预测项目代码总结
model.train()进入训练模式,用batch_x,batch_y记录train_loader产生的样品,并将其都放在gpu上,记为x和target,将x放进model,model是myModel的一个实例,只需给model传进一个x就可进行运算,可以感受到高封装性,根据pred和target计算出loss,再回传,更新参数,梯度归零,一个标准过程,最后将loss这个张量放在cpu上并取其数值。同样的,取出样品,前向过程,计算loss,不同的是,不需要回传,更新参数,梯度归零的过程。原创 2024-02-25 20:47:49 · 991 阅读 · 2 评论 -
2024-2-24简易回归代码总结
5. 数据提供函数,传入的参数即真实的x 和y,和一次取的数据量,随机取数据进行分析。2. create_data()创造批量数据,即真实的数据,torch.normal()返回一个随机的正态分布的tensor,接受三个参数,分别为mean均值,std方差,size张量大小,需注意的是此处表示张量大小为(data_num,len(w)),我的理解:这是由众多单笔数据(行向量)拼成的矩阵,其行数就是数据量,行向量中每个分量就是Xi的值,而具体有几个Xi,需要由len(w)告诉我们,有几个权重,就有几个Xi。原创 2024-02-24 15:26:40 · 1062 阅读 · 0 评论