LLMs实战
文章平均质量分 89
CSPhD-winston-杨帆
合作:winstonyf@qq.com 暨大博士生 川师大研究生 前成都东软教师
展开
-
Bert 在 OCNLI 训练微调 2
【数据集微调】阿里天池比赛 微调BERT的数据集(“任务1:OCNLI–中文原版自然语言推理”)请参照下面的信息,下载数据集、提交榜单测试。原创 2024-05-15 09:56:43 · 849 阅读 · 0 评论 -
Bert 在 OCNLI 训练微调
【数据集微调】阿里天池比赛 微调BERT的数据集(“任务1:OCNLI–中文原版自然语言推理”)数据集地址:https://tianchi.aliyun.com/competition/entrance/531841/information由于这个比赛已经结束,原地址提交不了榜单看测试结果,请参照下面的信息,下载数据集、提交榜单测试。原创 2024-05-03 10:12:17 · 770 阅读 · 0 评论 -
BERT系列模型 在OCNLI 训练微调 3
arxiv:RoBERTa: A Robustly Optimized BERT Pretraining Approachpytorch官方实现:https://pytorch.org/hub/pytorch_fairseq_roberta/hugging face hfl chinese-roberta-wwm-ext:https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main原创 2024-05-23 19:44:24 · 913 阅读 · 0 评论 -
T5模型 在OCNLI 训练微调 4
https://huggingface.co/google-t5/t5-base/tree/mainconda install -c conda-forge sentencepiece原创 2024-05-31 02:11:50 · 429 阅读 · 0 评论