自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 资源 (9)
  • 收藏
  • 关注

原创 BERT实战:实现多分类

前面以及介绍过bert的理论知识,以及它相应的实现方法,那么让我们通过实战加深对bert的了解。我们将通过bert实现一个文本多分类任务,具体是kaggle上的一个真假新闻的任务。具体如下:文件地址:https://www.kaggle.com/c/fake-news-pair-classification-challenge/data 模型形式:BERT + Linear Classifier参考链接:LeeMeng - 進擊的 BERT:NLP 界的巨人之力與遷移學習参考博客:Simple.

2020-11-30 16:50:05 6243 10

原创 【论文解读】NER任务中的MRC(机器阅读理解)

论文:https://arxiv.org/pdf/1910.11476v6.pdf前沿:在之前的NER任务中常常分为两种:nested NER和 flat NER。从直观的角度来看,nested NER考虑到了实体嵌套问题。发展:flat NER的任务通常形式化为序列标记任务:序列标记模型,但是这种序列标记的模型无法考虑到实体嵌入关系问题。如中国移动是一个公司实体,而中国是一个国家实体,在flat NER中可能只能提取出中国移动整体却忽视了中国这个部分。考虑到这个问题后,.

2020-11-30 16:49:11 2869

原创 Word2vec And Doc2vec - 文本向量化

word2vec 与 doc2vec的区别:两者从字面意思上就可以大致判断出区别来,word2vec主要针对与单词,而doc2vec主要针对于文本:顾名思义,Word2Vec是在单个单词上训练的,而Doc2vec是在可变长度的文本上训练的,因此,每个模型可以完成的任务是不同的。使用Word2Vec,您可以根据上下文预测单词,反之则可使用Vera,而使用Doc2vec则可以测量完整文档之间的关系。概述:文本向量化是自然语言处理中的基础工作,文本的表示直接影响到了整个自然语言处理.

2020-11-29 19:07:39 3986

原创 Simple to HMM and CRF

HMM(隐含马尔可夫模型)HMM参数中文分词为例:隐藏(状态)序列:词语的词性 States = {B,M,E,S}观察序列:每个词语(小明 ,去,学校,了)状态转移矩阵A,其中第i行j列表示状态i转移到状态j的概率(转移概率)状态序列到观察序列的分布矩阵B,即每个单词为某一次性的概率(发射概率)这个时候我们就完成了训练阶段的参数估计,得到了三个概率矩阵:TransProbMatrix: 转移概率矩阵(array_A)EmitProbMatrix: 发.

2020-11-29 19:06:54 164

原创 LSTM长短期记忆循环神经网络详解

一句话,有时候单独拎出来难以理解,而放在整篇文章中,我们则容易通过联系上下文理解。什么叫联系上下文理解,就是把前文信息联系结合到当前语句上,这也是RNN的关键。基本概念:维基百科RNN(Recurrent Neural Networks)Rnn本质是一个循环神经网络结构,将其展开,会得到一个序列结构,上一次的输出会作为下一次的输入(即前面的输入将会对后面的输入产生影响)。这种链式的特征揭示了 RNN 本质上和序列相关,因而很适合处理语音,文本,这种序列数据。基本概念:维基百科.

2020-11-29 19:06:17 1637

原创 GRU:Lstm的变体

在学习GRU之前应该先学习LSTM的原理,因为GRU就是Lstm的变体,而GRU以轻便简洁的优势应用于更多的场合。原论文GRU结构和LSTM不同,GRU主要由两个门组成:重置门,更新门。大概思路和LSTM相似,主要是将需要的信息获取,而舍弃不需要的信息。但GRU的结构更加简单,参数相比与LSTM要少很多。r用来重置,z用来更新(同样使用sigmoid激活函数):将重置分类r与h相乘与x拼接后得到重置的新信息~h:更新分类控制新信息中需.

2020-11-29 19:05:41 428

原创 seq2seq 和 attention:编码译码器与注意力机制

seq2seq简介Seq2seq将输入序列转换为输出序列。它通过利用循环神经网络(递归神经网络)或更常用的LSTM、GRU 网络来避免梯度消失问题。当前项的内容总来源于前一步的输出。Seq2seq主要由一个编码器和一个解码器。 编码器将输入转换为一个隐藏状态向量,其中包含输入项的内容。 解码器进行相反的过程,将向量转换成输出序列,并使用前一步的输出作为下一步的输入。维基百科:https://zh.wikipedia.org/zh-hans/Seq2seq通过最简单的.

2020-11-29 19:04:13 510

原创 【论文解读】Attention is All you need

地址:1706.03762v5.pdf (arxiv.org)abstrat作者在abstract中先是简述了一种传统的翻译模型:encoder and decoder + Attention注意力机制(回顾:Simple to seq2seq And attention | Ripshun Blog),然后引出了他们新的简单网络模型:Transformer,在实验中Transfromer有了很高的表现:28.4BLEU 在WMT2014 English to Germen4.

2020-11-29 19:02:58 608

原创 Pre-training in nlp

什么是预训练:AI 中的预训练是指使用一个任务训练模型,以帮助它形成可用于其他任务的参数,从而节约大量的时间和资源。(站在巨人的肩膀上解决问题)训练前的概念受到人类的启发。由于天生的能力,我们不必从零开始学习所有东西。相反,我们转移和重用我们过去学到的旧知识,以了解新知识并处理各种新任务。在人工智能中,训练前模仿人类处理新知识的方式。即:使用以前学习过的任务的模型参数初始化新任务的模型参数。这样,旧知识可帮助新模型从旧经验而不是从零开始成功执行新任务.nlp中的预训练发展过程:.

2020-11-29 19:01:54 195

原创 BERT:nlp领域跨时代的预训练模型

2018年是nlp重大改革的一年,bert的横空出世使得未来nlp的发展有利跨时代的进步,其在多个领域的完美成功使nlp研究方向有了很大的改变,一直到现在很多比赛的榜单都是由bert或者其畸形霸占。本文让我们简单了解bert,看看它是如何达到如此成就的。Bert:bert其实并没想象中的那么复杂,只要了解其中的几个知识点和两幅图便可以知晓它的原理和思想。而bert与其他网络之间也有很多参考和改变,详细见前篇博客:Pre-training in nlp | Ripshun Blog知.

2020-11-29 19:00:17 442

原创 BERT实战:中文命名实体识别

使用bert实现的一个NER10标签任务github:nlp-code/bert命名实体识别.ipynb at main · cshmzin/nlp-code (github.com)bert介绍博客:Simple to Bert | Ripshun Blog数据集来源:CLUE官网(细粒度NER任务)获取数据:# 获取数据import jsontrain_data = []dev_data = []test_data = []for line in open(.

2020-11-29 18:57:36 3588 3

pdf转word软件

将pdf转换成word文档,只需将pdf文件改为1命名放入程序下面,自动将pdf转换成word文档。

2020-11-05

python c/s临时通讯

python 通过socket实现的tcp多线程连接,使用tk创建图像界面,pymysql模块连接数据库,实现了qq单聊和群聊,显示在线用户。 运行时需改代码中的IP地址和端口。

2019-03-04

一个精美的个人博客主页

通过HTML,css,jq,js实现的个人博客,主要是前端代码,包含主页,创建博客,显示博客3个页面。

2018-11-08

python socket 实现服务器与客户端多线程连接

主要实现服务器端与多个客户端的连接,代码语言:python,模块:socketsever,客户端与服务器端实现相互的交接。

2018-09-26

8800元的excel教学

由于文件过多,以百度网盘的形式给出.................................................................................................................................................................................................................................................................................................................................................

2018-05-09

dht11.h库文件

dht11库,C语言版,arduino 。。。。。。。。。。。。。。

2018-04-11

dht.h库文件 温湿度传感器

包含dht11.h的库文件,C语言版,arduino内可添加,,,,,

2018-04-11

Html基础学习完整版

网站简单的Html基础编程,以ppt的形式结合代码了解Html中的各个标签

2018-02-03

Html基础学习

网站简单的Html基础编程,以ppt的形式结合代码了解Html中的各个标签

2018-02-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除