Relation Classification via Convolutional Deep Neural Network

Relation Classification via Convolutional Deep Neural Network 最近在学习关系抽取,找了一些经典的论文来看,写下一点自己的理解,方便自己以后查阅。 关系抽取 关系抽取规范点的定义就是,给定一个包含两个实体e1e_1e1​、e2e_2e...

2019-08-24 20:42:17

阅读数 3

评论数 0

pytorch中Tensor各种操作

import torch pytorch中Tensor初始化 #返回全零Tensor a = torch.zeros(2,3); print(a) #返回shape和参数一样的全1Tensor, zeros_like类似 b = torch.ones_like(a); print(b) #t...

2019-08-21 22:21:11

阅读数 5

评论数 0

pytorch自动求导

自动求导属性 import torch #设置自动求导 a = torch.rand((2,4), requires_grad=True) print (a) #查看自动求导属性 print (a.requires_grad) #改变自动求导属性 a.requires_grad_(False)...

2019-08-15 10:23:56

阅读数 4

评论数 0

基于HMM和CRF的命名实体识别

基于HMM和CRF的命名实体识别 前段时间,上了机器学习课程,然后老师布置了个大作业,使用具体的模型应用到具体的任务 我写了一个基于HMM和CRF的命名实体识别代码。在此总结一下。 数据集 数据集是从网上获取的一个简历数据集,存储在/data目录中,分为三个文件,分别是train.char.b...

2019-07-20 17:15:03

阅读数 27

评论数 1

XLNet理解

XLNet理解 XLNet是CMU和谷歌大脑在6月份,提出的一个新的预训练模型。在多个任务的性能超越 Bert.如果你学习过Bert、Transformer、Transformer XL, XLNet论文看起来会简单很多 自回归语言模型 Autoregressive language mode...

2019-07-09 22:06:17

阅读数 101

评论数 0

Transformer理解

Transformer理解 Transformer,是google, 2017年提出的一个特征提取模型,最近大火的Bert就是构建在Transformer的基础 上的,所以我们有必要深入学习一下。下面是我通过阅读原论文、博客资料,得到的一些理解 背景 在Transformer未提出来之前,RN...

2019-07-07 12:13:38

阅读数 52

评论数 0

Bert论文理解

Bert论文理解 关于Bert, 最近实在太火了,我看了Bert的原论文、Jay Alammar(博客专家)关于BERT的介绍、 还有知乎张俊林大佬写的从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史 稍微有点理解,所以记录下来。 Bert的网络结构 ​ Bert...

2019-07-04 16:47:27

阅读数 15

评论数 0

pytorch损失函数

学习深度学习的过程中一直会遇到损失函数,均方损失函数、交叉熵损失函数、负对数似然损失函数 有些时候觉得有点不清晰,所以总结、梳理一下,加深自己的理解 MSELoss损失函数 # MSELoss有一个参数 reduction='sum' 求误差和 # reduction='mean', 求误差平均...

2019-07-02 18:19:43

阅读数 174

评论数 0

docker学习

由于任务需要,所以学习了一下docker,发现docker真得很好用。 特别是你没有root、sudo权限的时候,自己构建一个自定义运行时环境是十分方便的。 记录一下我主要使用的命令 #列出所有镜像 sudo docker image ls #查看正在运行的容器 sudo docker ps ...

2019-07-02 15:48:30

阅读数 25

评论数 0

The Skip-Gram Model

The Skip-Gram Model 在许多自然语言处理任务,单词一般被表示成它们的TF-IDF值。TF-IDF虽然可以用来 衡量单词对文本的重要程度,但是并没有包含任何的语义信息。Word2Vec代表的是 一类将词转化为向量的神经网络模型, 词向量较好得保存了词的语义信息。实体识别、 文档分...

2019-06-06 11:21:21

阅读数 57

评论数 0

pytorch实现BiLSTM+CRF用于NER(命名实体识别)

pytorch实现BiLSTM+CRF用于NER(命名实体识别) 在写这篇博客之前,我看了网上关于pytorch,BiLstm+CRF的实现,都是一个版本(对pytorch教程的翻译), 翻译得一点质量都没有,还有一些竟然说做得是词性标注,B,I,O是词性标注的tag吗?真是误人子弟。所以 自己...

2019-05-21 00:04:36

阅读数 312

评论数 0

利用pytorch简单实现LSTM

利用pytorch简单实现LSTM LSTM的概念 通过观看李宏毅的RNN视频 视频链接 july关于LSTM的讲解 博客链接 基本了解了LSTM的概念和原理 我觉得两张图就足以概括LSTM 这张图完全展示了LSTM前向反向传播的全部过程, 想深入了解的可以参考july的...

2019-05-12 22:01:25

阅读数 950

评论数 0

HBase

HBASE 数据模型 概念图模型 为了索引一个数据,需要知道其行键+时间戳+列族+列修饰符,也可以形象得认为 行键+时间戳+列族+列修饰符构成了一个key,我们通过这个key去索引数据 物理视图 实际存储的时候,hbase是按照列族存储的 hbase是一个稀疏,多维度,分布,排序映...

2019-04-11 09:59:23

阅读数 25

评论数 0

zookeeper安装教程

zookeeper安装教程 集群配置 机器 IP地址 First 192.168.56.4 Second 192.168.56.5 Third 192.168.56.6 每台机器的配置 切换到zookeeper的配置目录, 我的是zookeeper-3.4.13/con...

2019-04-07 12:09:09

阅读数 20

评论数 0

HDFS

最近看了The Hadoop Distributed File System,2010年发表的一篇关于HDFS的论文 里面详细介绍了HDFS的各个方面,虽然里面有些技术已经被淘汰或者革新了,但是里面的 设计思想还值得学习的,所以写下这篇笔记。 技术有限,可能会有差错,希望指出。 NameNo...

2019-03-21 19:55:54

阅读数 53

评论数 0

MapReduce

MapReduce 前几天看了google的mapreduce论文,里面有很多学习的知识点,故在此记录。 其中难免有错误,希望指出,有评论立即会回。 mapreduce基本概念 写过一些mapreduce程序之后,觉得mapreduce程序分为两部分 map阶段,输入时的&...

2019-03-21 19:55:16

阅读数 41

评论数 0

YARN

YARN 近期读了论文, Apache Hadoop YARN:Yet Another Resource Negotiator 收益匪浅,故写了一篇简单的总结,其中难免有错误,望指正。有消息 看到,会立即回复。 上图是yarn的的框架图,解释一下三个主要的守护进程 Resource Mana...

2019-03-18 18:57:37

阅读数 23

评论数 0

决策树

决策树 决策树是一种有监督的分类模型,由节点和边构成。节点分为两种,一种是 树的内部节点,表示一个特征或者属性,一种是叶节点,表示一个类(标签), 边代表特征的各种取值。如下图所示. 用决策树进行分类时,从根节点开始,对实例的某一特征进行测试,根据测试结果, 将实例分配到其子节点(每个子节点...

2019-03-02 14:32:02

阅读数 34

评论数 0

RDFS简介

RDFS简介 这篇博客简单介绍一下RDFS的基本语法,和一些简单的推理规则 其中难免有错误,欢迎评论指出,我会立即回复的。 在上篇RDF的介绍中知道,RDF是领域无关的,而RDFS可以对特定领域进行 描述。具体得,RDFS是通过描述subClassOf, subPropertyOf关系,还有对...

2019-03-02 14:29:37

阅读数 140

评论数 0

Linux查找命令

Linux查找命令 which 用法 which [-a] command 解释 根据PATH所规范的路径去查询“执行文件”的路径 不同用户查找相同的命令输出结果可能不同,局限于PATH -a 将所有由PATH目录中可以找到的命令均列出,而不只是第一个被找到的命令名称 例子 [l...

2019-01-21 16:23:50

阅读数 73

评论数 0

提示
确定要删除当前文章?
取消 删除