![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 95
qq_42859625
这个作者很懒,什么都没留下…
展开
-
首届世界科学智能大赛:生命科学赛道——生物学年龄评价与年龄相关疾病风险预测(第一次笔记)
本次笔记参考Datawhale AI夏令营(第三期) - AI for Science 生命科学赛道学习手册本次赛题全称为【首届世界科学智能大赛:生命科学赛道——生物学年龄评价与年龄相关疾病风险预测】 举办方:【赛题背景】生物学年龄评价是一种通过测量和分析生物体内特定指标或生理过程的状态,以评估个体的生理年龄和健康状况的方法。与传统的日历年龄相比,生物学年龄可以提供更准确的健康评估和疾病风险预测。原创 2023-08-18 14:15:35 · 353 阅读 · 2 评论 -
首届世界科学智能大赛:生命科学赛道——生物学年龄评价与年龄相关疾病风险预测(第二次笔记)
一次性读取10万个特征扛不住,老是内核崩掉缺失值该如何处理catboost是否一定比xgboost和lightgbm的效果要好。原创 2023-08-22 17:49:45 · 174 阅读 · 1 评论 -
首届世界科学智能大赛:生命科学赛道——生物学年龄评价与年龄相关疾病风险预测(第三次笔记)
背景介绍见第一次笔记:在前两篇博客里,我们已经尝试了,但是由于有些降维方法对缺失值或者负数比较敏感,是不能使用的;再则一些过滤方法的提升不大还是会造成各种各样的问题。原创 2023-08-25 20:52:12 · 136 阅读 · 1 评论 -
使用ChatGLM2-6b微调解决文本二分类任务
尽量利用预训练模型:现在的预训练语言模型已经能提取强大的语义特征,直接fine-tune往往能取得不错的结果。多尝试微调技巧:例如使用LoRA进行层间微调,不仅可以提升效果,也更加参数效率。仔细设计Prompt:根据任务设计合适的Prompt(语句模板),可以让模型更好地捕捉下游任务的特点。多组验证试验:跑多个实验组合,如模型大小、Prompt长度、batch size等超参数,找出最优配置。注意过拟合现象:大模型容易过拟合,可以采用早停等策略,或者增强训练数据。原创 2023-07-30 00:58:42 · 2425 阅读 · 3 评论 -
使用预训练的BERT模型解决文本二分类和关键词提取
使用预训练的BERT模型解决文本二分类和关键词提取原创 2023-07-27 11:12:02 · 3969 阅读 · 2 评论