炼丹调参知识汇总

UndefinedMetricWarning: Precision and F-score are ill-defined and being set to 0.0 in labels
https://blog.csdn.net/So_that/article/details/89787366
CUDA ERROR: device-side assert triggered at 问题及解决思路【设置的标签index和实际数据不匹配】
https://blog.csdn.net/qq_31049727/article/details/90671689
https://zhuanlan.zhihu.com/p/202751687
https://blog.csdn.net/jacke121/article/details/104792239/

keras loss loss_weight 作用要点总结
https://blog.csdn.net/u012514944/article/details/88033655

梯度爆炸的解决办法:clip gradient
https://blog.csdn.net/u010814042/article/details/76154391

评估指标

【内容丰富】多分类模型Accuracy, Precision, Recall和F1-score的超级无敌深入探讨
https://zhuanlan.zhihu.com/p/147663370
【例子通俗易懂】正确率、召回率、F值例子
https://blog.csdn.net/yangfengling1023/article/details/84104662

wa,uwa
【不是很明白】论文笔记:语音情感识别(二)声谱图+CRNN
https://blog.csdn.net/weixin_30333885/article/details/96827121
【你问我答】Weighted GPA和Unweighted GPA有什么区别?
https://www.sohu.com/a/319744342_99894980

bert

bert调参因素(shuffle,lr,batch_size,epochs)
Bert踩坑总结—————分类准确率过低
https://blog.csdn.net/weixin_38527856/article/details/100914742
BERT模型有什么调参技巧?【阿里阿里里】
https://www.zhihu.com/question/373856698/answer/1034691809
Bert微调技巧实验大全
https://zhuanlan.zhihu.com/p/109143667
NLP重铸篇之BERT如何微调文本分类
https://blog.csdn.net/yizhen_nlp/article/details/106560907
关于最近实践 Bert 的一些坑
http://www.360doc.com/content/19/0806/05/46368139_853226883.shtml

今天遇到了一个问题,bert在多分类下效果并不好,请问有什么多分类效果好的模型?
https://www.zhihu.com/question/412182240/answer/1385963984

在transformers使用from_pretrain方法下载的预训练模型在哪儿
https://blog.csdn.net/qq_33885970/article/details/107515908
https://blog.csdn.net/qq_42058018/article/details/108056694
huggingface transformers预训练模型如何下载至本地,并使用?
https://zhuanlan.zhihu.com/p/147144376
Pytorch-Bert预训练模型的使用(调用transformers)
https://www.cnblogs.com/cxq1126/p/13517394.html
Transformers 加载预训练模型 | 七
https://blog.csdn.net/fendouaini/article/details/105254397
pytorch+huggingface实现基于bert模型的文本分类(附代码)
https://www.cnblogs.com/tangjianwei/p/13334327.html
Huggingface简介及BERT代码浅析
https://zhuanlan.zhihu.com/p/120315111
[深度学习] 自然语言处理 — Huggingface-Pytorch中文语言Bert模型预训练
https://blog.csdn.net/zwqjoy/article/details/107533184
在colab使用transformers报错:no module named boto3
https://stackoverflow.com/questions/58308203/no-module-named-boto3

调参

学习率的调整方法
https://www.bilibili.com/read/cv6788702
深度学习实战(八)——如何设置学习率
https://blog.csdn.net/qq_37764129/article/details/94032900
调节学习率【先大后小/不同层设置不同的学习率】
https://zhuanlan.zhihu.com/p/136183319

神经网络中 warmup 策略为什么有效;有什么理论解释么?【和你说的sgd的用法也不矛盾,但是那个的前提是模型不容易跑崩。】
https://blog.csdn.net/dendi_hust/article/details/104465337
https://www.zhihu.com/question/338066667/answer/790671000
https://www.zhihu.com/question/338066667/answer/790703680

finetuning Bert时的权重衰减
https://blog.csdn.net/mch2869253130/article/details/105994044
https://blog.csdn.net/program_developer/article/details/80867468

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值