BERT 相关资源整理

文章

NLP文档挖宝(3)——能够快速设计参数的TrainingArguments类
使用 PyTorch 进行知识蒸馏
调节学习率
Huggingface简介及BERT代码浅析
使用huggingface的Transformers预训练自己的bert模型+FineTuning
BERT 预训练
预训练模型:从BERT到XLNet、RoBERTa、ALBERT

Bert如何使用预留的[unused*]
BERT 详解
Pytorch 保存模型与加载模型
BERT相关面试题(不定期更新)
【Pytorch】【torchtext(二)】Field详解
BERT模型蒸馏完全指南(原理/技巧/代码)
2021年如何科学的“微调”预训练模型?

topk 精度
BERT如何在小数据上finetune更稳
HuggingFace-Transformers系列的介绍以及在下游任务中的使用
从零实现BERT网络模型

视频

计算性能-如何让你的pytorch代码高效(torchscript).mp4
基于BERT模型的文本分类实战和情感分析实战教程!华理博士半天就教会了我BERT模型!(唐宇迪)

from __future__ import print_function, absolute_import

__all__ = ['accuracy']

def accuracy(output, target, topk=(1,)):
    """Computes the precision@k for the specified values of k"""
    maxk = max(topk)
    batch_size = target.size(0)

    _, pred = output.topk(maxk, 1, True, True)
    pred = pred.t()
    correct = pred.eq(target.view(1, -1).expand_as(pred))

    res = []
    for k in topk:
        correct_k = correct[:k].view(-1).float().sum(0)
        res.append(correct_k.mul_(100.0 / batch_size))
return res

github

bert_cn_finetune

BERT-pytorch
Chinese-Text-Classification

https://github.com/ymcui/Chinese-BERT-wwm

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

暖仔会飞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值