自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 Datawhale AI 夏令营(生命科学方向)

LSTM(Long Short-Term Memory,长短期记忆网络)是一种特殊的循环神经网络(RNN),它在处理序列数据方面非常有效,特别是那些需要“长期记忆”的序列.:调整食材的“味道”,让它们都在一个差不多的水平线上,这样模型吃起来才不会觉得有的太淡有的太咸。:有时候,食材太大块或形状不合适,需要切割或重新组合,这样模型才能更好地“吃”下去。:有些食材是模型不认识的(比如文字、颜色等),需要给它们贴上标签,告诉模型这是什么。:去掉数据中的脏东西和不需要的部分,比如错误的数据、缺失的信息等。

2024-07-31 22:50:39 214

原创 Datawhale AI 夏令营(生命科学方向)

它允许开发者使用Python来构建和训练神经网络,具有直观、灵活和易于使用的特点。通过PyTorch,你可以轻松地定义模型、计算损失、优化参数,并处理各种类型的数据,如图像、文本等。同时对于学习率可以采用相关的学习率自动化调整的方法例如:余弦退火学习算法之类的。跑完baseline感觉就是嗖的一下就跑完了,baseline里面给的代码功能介绍给的很详细并且在代码运行时也有epoch进度条显示,感觉很不错,虽然这次成绩一般,继续努力吧!6、模型训练:调整参数,观察平均绝对误差和的值和F1的得分。

2024-07-28 23:48:48 167

原创 Datawhale AI 夏令营(机器学习方向)

前前后后测试这个机器学习的模型不下10次,查阅了很多资料,翻阅了很多大佬的经验,以及求问了群上很多大佬的经验。此次经历丰厚了我的知识,锻炼了我的心态,也让我见识到了很多厉害的人。如果要再加分,可以适当调整三个模型的参数来加分,调整策略同第一条一样。个人误点:在特征优化中,容易爆内存,因此需要利用GPU32来跑模型,可避免此情况,如果自己有相应好的设备也可以利用自己的GPU本地跑,或许会有更高的得分。

2024-07-21 00:18:44 209

原创 Datawhale AI 夏令营(NLP方向)

Transformer模型是一种基于自注意力机制(Self-Attention Mechanism)的深度学习模型,最初由Google的研究团队在2017年提出,主要用于处理自然语言处理(NLP)任务,如机器翻译、文本生成、语言理解等。Transformer模型的出现彻底改变了NLP领域的格局,其重要性堪比计算机视觉领域的卷积神经网络(CNN)。

2024-07-20 23:55:47 214

原创 Datawhale AI 夏令营 (NLP方向)

1、Seq2SeqSeq2Seq,全称Sequence to Sequence,是一种用于处理序列数据的深度学习模型,其核心思想是将一个输入序列转换成一个输出序列。本次task2的模型用于机器翻译。2、torchtext:是一个用于自然语言处理(NLP)任务的库,它提供了丰富的功能,包括数据预处理、词汇构建、序列化和批处理等,特别适合于文本分类、情感分析、机器翻译等任务3、jieba是一个中文分词库,用于将中文文本切分成有意义的词语。

2024-07-17 23:08:10 749

原创 Datawhale AI 夏令营Task2 (机器学习方向)

GBDT (Gradient Boosting Decision Tree) 是机器学习中一个长盛不衰的模型,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好、不易过拟合等优点。:LightGBM(Light Gradient Boosting Machine)是一个实现GBDT算法的框架,支持高效率的并行训练,并且具有更快的训练速度、更低的内存消耗、更好的准确率、支持分布式可以快速处理海量数据等优点。LightGBM 框架中还包括随机森林和逻辑回归等模型。

2024-07-17 01:10:53 533

原创 Datawhale AI 夏令营(机器学习方向)

除此之外,大家可能还听过“半监督学习”之类的说法,但是那些都是基于上面3类的变种,本质没有改变。

2024-07-14 23:59:16 226

原创 Datewhale AI 夏令营

所谓Seq2Seq(Sequence to Sequence),即序列到序列模型,就是一种能够根据给定的序列,通过特定的生成方法生成另一个序列的方法,同时这两个序列可以不等长。GRU(Gate Recurrent Unit)是循环神经网络(RNN)的一种,可以解决RNN中不能长期记忆和反向传播中的梯度等问题,与LSTM的作用类似,不过比LSTM简单,容易进行训练。filename: 数据集文件的路径,假设是一个包含英文和中文文本的文件,每行包含一个英文句子和对应的中文句子,通过制表符分隔。

2024-07-14 23:05:58 1021

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除