自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 SCI期刊

计算机类sci期刊检索网址:http://www.letpub.com.cn/index.php?page=journalapp可利用以下关键字进行查询:intelligenceinformationcomputing,compution,computerlanguagepatternneuro等等。。。

2017-09-06 15:06:08 341

原创 openssh+xshell, sftp+winscp

首先安装ssh,主要参考https://jingyan.baidu.com/article/9c69d48fb9fd7b13c8024e6b.htmlsudo apt-get updatesudo apt-get install openssh-serversudo ps -e |grep ssh 查看ssh有没有启动,如果有sshd是启动了,否则通过sudo service ssh

2017-09-02 08:00:44 575

原创 python2+python3+theano+tensorflow

一,在之前的文章中已经安装了显卡驱动及CUDA, 接下来需要安装深度学习包theano和tensorflow,这两者都是基于python, 所以需要先处理python的事情,在ubuntu中已经包含了py2和py3两个版本,为了在这两个版本中都装下theano和tensorflow(py2两个都有,py3只有tf,为了与windows保持一致),其中python命令对应py2, python3命令

2017-08-31 08:18:46 1390

原创 安装Ubuntu+gpu+tensorflow+py2+py3

一,首先要准备一个够用的U盘 >2g,安装过程中需要分区,参考以下两个教程两块硬盘分了三个区,首先根目录/(EXT4, 主分区)预留了190g也就是ssd剩下的容量,其中swap预留了64g和内存同等(交换空间,逻辑分区),最后4T的全部留给了/home(EXT4, 逻辑分区)。https://zhidao.baidu.com/question/181607133.htmlhttp://w

2017-08-30 07:18:51 498

原创 2017-4-16

今天的工作主要是确定了初步的思路,分为以下几个步骤:第一采用推理的机制,通过不断地推理来更加深入地明白answer的含义,之后利用answer与文本,answer与问题,以及经过answer的文本与问题的的语义一致性来判断得到最后的分数,可以把具体的内容代入到query的句子中。这样就包含了基于answer的文本的语义,基于answer的问句的语义,经过融合这两者后的answer与原始位置的语

2017-04-16 20:46:37 211

原创 2017-4-5

昨天与今天的工作,阅读了四篇文献:1. Iterative Alternating Neural Attention for Machine Reading. 来自Maluuba 公司,主要思想是将Memory Network的推导机制加入到模型当中,引入了第三方的GRU来综合Document和Query的信息,之后再进行深入地推理。2. Gated Attention Readers

2017-04-15 11:20:39 492

原创 2017-4-11

今天的主要工作,阅读了两篇文献:1. A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task.来自Stanford Danqi Chen的工作,该工作所实现的模型与之前DeepMind的Attentive Reader是类似的,但在效果上取得了很大的提升,其主要的原因来自于在计算问句与每个词之间的注

2017-04-11 19:16:49 243

原创 2017-4-20

今天两部分工作:一。阅读关于阅读理解(Reading Comprehension)两篇相关文献:      1. Teaching Machines to Read and Comprehend.      用神经网络做阅读理解的开山之作,来自于DeepMind的工作,主要提了两个数据集CNN, Daily News和两个基于注意力机制的神经网络:Attentive Reader 和

2017-04-10 20:31:01 367

原创 2017-1-5

今天的工作内容:1. tf_record 格式是为了对于无法一次性读入内存计算batch的情况,需要从文件里面来处理。2. 对于tensor的变形,初始化,等操作可以参考tensorflow给出的API,根据自己的需要来寻找,基本都会找到。3. 另外读取大文件时,python的open()函数可能没有tensorflow自己带的文件读取函数tf.file来的方便,可以后续学习。

2017-01-05 21:39:36 238

原创 2017-1-3

今天的学习内容:1. 利用tensorlayer时对于可训练变量的设置2. 对于RNNlayer中的初始状态如何设定3. 关于tensorlayer的layer理解第一,如果在训练的时候想选择某些参数进行训练,而对其他的参数不训练,有两种方式进行设置,第一是在定义参数的时候设定train_able属性为true或者false, 另外一种方式是在给定训练操作时设定可训练参数集

2017-01-03 15:29:00 318

原创 2016-12-28

今天的学习内容:今天理顺了搭建一个网络结构的步骤:0. 定义全局参数FLAG1. 数据读取及预处理2. 构建图,包括训练图,测试图,以及loss, accuracy等希望展示的节点3. 构建数据迭代器以batch单位读取数据4. 初始化5. 训练图6. 测试图其中以上几个步骤都可以参考tensor-layer的使用方式来做,其包含了数据读取与预处理(tl

2016-12-28 20:47:31 256

原创 2016-12-27

今天的工作内容:今天主要了解对于自然语言处理来说,如何进行数据预处理来训练深度学习模型,总的来说分为三个步骤:1. 从文件读取内容到内存,通常会存储在列表中2. 对读入内存的数据进行统计分析,得到词典,反过来的词典,转换为数字序列的文件等等3. 从处理好的文件序列中进一步处理得到batch和label输入到下一步的tensorflow中来进行训练下边分别对这三个步骤进行说明:

2016-12-27 16:19:42 275

原创 2016-12-21

今天工作内容:主要是利用tensorlayer的skipgram算法来训练中文的词向量,其中语料用的是从搜狗实验室下载的新闻数据,大概1g多的样子,在提取内容的时候本来想利用xml的包直接读取,但一直出现读取错误,就放弃了,后来采用正则表达式的方法,而正则的学习主要是学到了group()方法,可以把想要提取的内容用括号提取,之后在全局匹配的前提下可以利用group()把想要的内容提出来

2016-12-22 21:43:19 283

原创 2016-12-20

今天的工作如下:1. 在windows下安装tensorflow可以考虑用Aconda环境,需要注意的是只能在python 3+版本下运行,因此可以安装两个Aconda, 一个是python2的,一个是python3的。然后把python2文件夹下的python.exe(pythonw.exe)改成python2.exe. 之后cmd下输入python就是python3, 输入python2就

2016-12-20 18:15:19 402

原创 2016-12-19

今天主要的工作有以下几部分:1. 熟悉运行word2vec_basic版本,tf.nn.nce_loss()函数返回的是batch的loss值,而因为词表太大不太适合做全局的softmax, 因此此处采取的是采样的方法,也就是经过一个正样本和多个随机采样的负样本来计算loss值,此处用的是sigmoid_cross_entropy_with_logits()函数,因此在计算交叉熵的时候是每一个

2016-12-19 18:02:44 842

原创 2016-12-14

今天的工作内容:一,大概看了之前下载的两篇关于short text相似度的文章,第一篇文章较早,主要是介绍了对短文本相似度一些定义方面的内容,如何定义两个句子是相似的还是相关的,相似的程度等等,并提出了一个人工标注的数据集,之后可以再详细看一下其中对相似度的介绍。第二篇文章是用embedding的方式来做短文本相似度,其中对短文本相似度的方法做了一些简要的分类,大致上可以分为:字符串匹配,语法

2016-12-14 17:55:07 318

原创 2016-12-13

今天的工作主要分为以下几部分:1. 完成tensorflow对于mnist的实验,今天新学到的知识是如何添加summary, 可以根据不同的值类型来选择添加不同的summary. 之后利用summary = tf.summary.merge_all() 将所有的summary结合起来,之后可以sess.run(summary)返回相应的object. 并且新建summarywriter用于把得

2016-12-13 18:15:10 393

原创 2016-12-12

主要工作内容:一. tensorflow 学习1.构图节点:构图过程中的节点主要有三种类型,(tensor, operation, variable), 其中tensor可以看作操作的输出,数据的流动,其中输入/输出节点也可看作是节点的一种。operation定义的是计算操作,variable用于读取/存储变量这三个都有相应的name属性,可以自己定义,若 没有自己定义则为默认的名字,

2016-12-12 21:42:22 265

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除