- 博客(9)
- 资源 (1)
- 收藏
- 关注
原创 CCF-CSP202303-2 垦田计划 70分 ---贪心选最大法
托男朋友的聪明才智,顺利理清思路,感谢我的男朋友支持我成长,尊重我的决定,理解我的需求和感受,在我的生活中给我支持和陪伴的力量,让我们都能成为更好的自己!#include <bits/stdc++.h>using namespace std;const int N = 100010;struct plan{ int t; //开垦天数 int c; //缩短一天需要的资源数 }a[N];bool cmp(plan&a,plan&b){ return
2023-09-11 21:35:13 149 1
原创 基于论文摘要的文本分类与关键词抽取挑战赛——Bert方法
拿到对应的数据# 如果是测试模式,则返回内容和uuid。拿uuid做target主要是方便后面写入结果。else:# 取第index条# 取其内容# 根据状态返回内容# 如果是test,将uuid做为targetelse:# 返回内容和label# 加载bert模型# 最后的预测层nn.ReLU(),""":param src: 分词后的推文数据"""# 将src直接序列解包传入bert,因为bert和tokenizer是一套的,所以可以这么做。
2023-08-22 16:10:19 283
原创 基于论文摘要的文本分类与关键词抽取挑战赛——机器学习方法
使用机器学习的baseline效果如上图所示,接下来就将详细更新基于Bert的模型,效果精度任务一可达0.997左右,任务二为0.54左右,敬请期待哦,一起学习,未来可期!
2023-08-18 22:48:53 177 1
原创 任务9-11 Coggle 30 Days of ML(23年7月)
class MyModel(nn . Module) : def __init__(self) : super(MyModel , self) . __init__() # 加载bert模型self . bert = BertModel . from_pretrained('bert-base-uncased' , mirror = 'tuna') # 最后的预测层。
2023-08-04 11:39:58 115 2
原创 任务6-8 Coggle 30 Days of ML(23年7月)
参考链接:http://t.csdn.cn/V1g26由于学习到的特征有限,提交结果分数并不高,下一章尝试Bert。
2023-08-04 09:10:41 98 1
原创 [打卡任务1-5科大讯飞竞赛]ChatGPT生成文本检测器
我们可以看到使用XGBoost已经得到了不错的分数,可以在此基础上进行优化刷榜!路漫漫其修远兮,吾将上下而求索!愿我们都能顺心顺意!
2023-08-01 11:42:21 288 2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人