- 博客(3)
- 资源 (23)
- 收藏
- 关注
转载 Bert资源整理
转载自:https://mp.weixin.qq.com/s/q5OyrIycfN4fjQ33uSRmEA整理一下BERT相关的资源,包括Paper, 代码和文章解读。1、Google官方:1)BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding一切始于10月Google祭...
2019-07-26 01:51:23 793
转载 BERT模型深度解析
转载自: https://blog.csdn.net/qq_39521554/article/details/83062188github:NLP-BERT--Python3.6-pytorch一、前言 去年谷歌AI团队新发布的BERT模型,在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩:全部两个衡量指标上全面超越人类,并且还在11种不同NLP测试中创出...
2019-07-26 01:48:27 5941
转载 概率语言模型3——训练工具汇总
转载自https://www.itread01.com/content/1547467935.html傳統演算法1) BerkeleyLM 是用java寫的,號稱跟KenLM差不多,記憶體比srilm小https://github.com/adampauls/berkeleylm2)MITLM (The MIT Language Modeling toolkit) 引數優化做...
2019-07-03 14:16:22 679
stanford-segmenter-2018-10-16.zip
2020-05-07
stanford-corenlp-full-2018-10-05.zip
2020-05-07
Active noise control a tutorial review.pdf
2020-05-07
cuda_10.0.130_windows_network.exe
2020-04-10
stanford-openie-models.jar
2020-04-10
stanford-postagger-full-2018-10-16.zip
2019-07-23
stanford-ner-2018-10-16.zip
2019-07-23
stanford-classifier-2018-10-16.zip
2019-07-23
Java并发编程
2017-05-08
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人