![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
文章平均质量分 51
AI研习室
专注,坚持,突破。从事自然语言处理,热衷机器阅读理解,文本生成,知识图谱等技术的研究。
展开
-
基于rasa的多轮对话实例---concertbot
实例bot仅仅包含story数据。 项目地址 https://github.com/RasaHQ/rasa/tree/main/examples/concertbot 这个例子包含什么 这个示例包含一些训练数据和在本地机器上构建一个助手所需的主要文件。concertbot由以下文件组成: data/stories.md 包含核心模型的训练stories actions/actions.py 包含一些自定义的actions config.yml 包含模型的配置 domain.yml 包含助手的domain e原创 2021-04-25 15:46:49 · 488 阅读 · 0 评论 -
bert单机多GPU训练
多GPU训练bert 概述 做nlp的肯定都听说过bert了,它属于迁移学习,官方提供了通用语料bert预训练结果,通过微调,可以提高下游任务的准确率。但是bert使用的维基百科这类的通用语料,对特定领域的文本特征学的不是很好。例如我所在的医疗领域,bert并不能很好区分医学特征,此时就需要我们对自己的语料进行预训练。bert官方也提到利用fine-tune任务的语料进行预训练,能提高fine-tune任务的准确率。 训练bert 官方提供的bert是使用tpu集群训练的代码,他可以兼容单核GPU、多核CP原创 2021-04-08 22:22:18 · 862 阅读 · 0 评论