自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Deep Learning and NLP Farm

静心学习,期待进步! ideas, code and more

  • 博客(16)
  • 收藏
  • 关注

原创 pytorch版的bilstm+crf实现sequence label

在理解CRF的时候费了一些功夫,将一些难以理解的地方稍微做了下标注,隔三差五看看加强记忆import torchimport torch.autograd as autogradimport torch.nn as nnimport torch.optim as optimdef to_scalar(var): #var是Variable,维度是1 # returns a python

2017-11-29 14:15:14 13796 3

原创 pytorch的切片

torch.index_select()的示例x = torch.randn(3, 4)print(x)indices = torch.LongTensor([0, 2])y = torch.index_select(x, 0, indices)print(y)z = torch.index_select(x, 1, indices)print(z)运行结果: 另一种示例:embedd

2017-11-25 10:54:48 8856

原创 ubuntu文件的安装

我在安装progressbar的时候出错了,安装命令如下: pip install progressbar 然后出现balabala等一系列错误,在网上找到正确的安装命令,特意放置于此. pip install progressbar2哇,正确安装,毫无问题 http://blog.csdn.net/u012436149/article/details/73173309

2017-11-24 11:22:54 372

原创 sorted函数的理解

在Sorting Keys中:我们看到,此时排序过的L是仅仅按照第二个关键字来排的,如果我们想用第二个关键字 排过序后再用第一个关键字进行排序呢?L = [('d',2),('a',4),('b',3),('c',2)]print sorted(L, key=lambda x:(x[1],x[0]))[('c', 2), ('d', 2), ('b', 3), ('a', 4)]如果代码是这样

2017-11-23 17:00:17 801

原创 pytorch加载已训练好的word-embedding

十一的时候已将pytorch的tutorial看过了,但是并没有用pytorch做什么项目,一直以来都是用tensorflow搭建框架,但是因为其是静态网络,不能处理if…else等等操作,于是转而用pytorch实现,将遇到的一些问题放在此处,因为脑子不好使啊,哈哈 如果是随机初始化的向量,是这么定义的:self.word_embeds = nn.Embedding(vocab_size, em

2017-11-21 18:58:44 16993 4

原创 ubuntu参数的形式

虽然会熟练应用ubuntu系统,但是对其的工作机制,内核等等知道的太少,有时候看到一些关于ubuntu的零星点有种恍然大悟的感觉,又生怕这种感觉随着事件会丢失,所以放到这里一点点积攒,最后在来个大总结. 一:为什么linux中,很多命令都有-r和-f参数,这两个参数有什么具体的意义? 第一种:参数用一横的说明后面的参数是字符形式。 第二种:参数用两横的说明后面的参数是单词形式。 第三种:参数前有

2017-11-21 15:27:46 604

原创 pytorch中bilstm-crf部分code解析

解析119行到132行 关于self.transition的理解

2017-11-20 10:18:39 7494 1

原创 Tensor, Variable 和Parameter

学习pytorch的过程留意到的三种类型:torch.FloatTensortorch.autograd.variable.Variabletorch.nn.parameter.ParameterTensor的创建:import torchimport torch.autograd as autogradx = torch.randn((2, 2))print(type(x))Tens

2017-11-17 20:41:23 4962

原创 pytorch中next_functions

import torchimport torch.autograd as autograd# Variables wrap tensor objectsx = autograd.Variable(torch.Tensor([1., 2., 3]), requires_grad=True)# You can access the data with the .data attribute#

2017-11-17 20:14:54 2981 2

原创 pytorch中example解析

例子来源于官网60分钟教程中网络搭建部分:import torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.autograd import Variableclass Net(nn.Module): def __init__(self): super(Net, self).__init__

2017-11-17 20:12:57 1960

原创 CNN和图像的一些概念解释

关于CNN理解的不是很透彻,一旦涉及到处理图像,总有些概念模糊不清,特意在词总结下: 通道:每个卷积核都会将图像生成为另一幅图像。比如两个卷积核就可以将生成两幅图像,这两幅图像可以看做是一张图像的不同的通道。

2017-11-17 14:41:04 631

原创 tf.control_dependencies()和tf.identity()

示例一: 程序运行的结果: 示例二: 运行结果: 仔细观察两个示例的区别,只是第6行代码的不同. 先来说明下第5行:tf.Graph.control_dependencies简单来说就是控制计算顺序。with g.control_dependencies([a, b, c]):   # ‘d’ and ‘e’ will only run after ‘a’, ‘b’, an

2017-11-16 19:58:58 394

原创 tf.cond和tf.case

tensorflow的逻辑控制 关于tf.case理解的不是很好: https://stackoverflow.com/questions/41910073/tensorflow-tf-case-f-default-should-do-nothing 待明确后再补充 关于tf.cond,这里给出几个示例,对我来说,例子就是快速明白用法的途径import tensorflow as tfa=

2017-11-16 19:25:53 5361

原创 tf.gather和tf.slice

这两个函数不是很清楚,而且对其的参数理解不好,所以特意做备注,下面的这两个网址给出了很好的解释,待空闲好好整理 关于tf.slice的方法示例import tensorflow as tfimport numpy as npx = [[1, 2, 3], [4, 5, 6], [7, 8, 9],[10, 11, 12]]p = [2, 2, 2]with tf.Session() as se

2017-11-10 14:57:46 2758

原创 机器学习中损失函数常用log的用意

Log Loss 在使用似然函数最大化时,其形式是进行连乘,但是为了便于处理,一般会套上log,这样便可以将连乘转化为求和,由于log函数是单调递增函数,因此不会改变优化结果。因此log类型的损失函数也是一种常见的损失函数. 一些常用的损失函数: (1) Zero-one loss (2) Perceptron loss (3) Hinge loss (4) Log loss (5) S

2017-11-09 14:18:26 10562 1

原创 [EMNLP2017]Adversarial Training for Relation Extraction

多示例学习(multi-instance learning)的概念。在此类学习中,训练集由若干个具有概念标记的包(bag)组成,每个包包含若干没有概念标记的示例。若一个包中至少有一个正例,则该包被标记为正(positive),若一个包中所有示例都是反例,则该包被标记为反(negative)。通过对训练包的学习,希望学习系统尽可能正确地对训练集之外的包的概念标记进行预测,也就是说预测集也是包,对包打上

2017-11-02 15:34:57 2290 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除