![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
小杨算法屋
这个作者很懒,什么都没留下…
展开
-
微软开源项目NeuronBlocks - 像搭积木一样构建NLP深度学习模型
NeuronBlocks将常用的神经网络层封装为标准模块,通过配置简单的配置文件,就可以轻松构建复杂的深度神经网络模型,与此同时,工具包还提供了一些列针对常见NLP任务的经典模型项目地址:https://github.com/Microsoft/NeuronBlocks1、安装NeuronBlocks 目前支持:Python 3.6, PyTorch 0.4.1,Linux/Windo...原创 2019-05-07 16:10:17 · 800 阅读 · 0 评论 -
微软开源项目NeuronBlocks - 可视化
项目地址:https://github.com/Microsoft/NeuronBlocks在下载位置的model_visualizer文件夹下面有相关的可视化的介绍1、相关包的安装首先进行相关包的安装:pip install graphvizpip install web.py==0.40.dev0安装成功的界面如下所示:2、代码的运行进入到指定的位置:\Ne...原创 2019-05-09 15:19:58 · 553 阅读 · 0 评论 -
斯坦福CS课程列表
http://exploredegrees.stanford.edu/coursedescriptions/cs/CS 101. Introduction to Computing Principles. 3-5 Units.Introduces the essential ideas of computing: data representation, algorithms, prog...转载 2018-12-25 20:03:57 · 11944 阅读 · 0 评论 -
ValueError:Dimension must be equal ,but for rnn_layer/bidirection_rnn/fw/fw/while/fw/multi_rnn_cell/
具体的错误类型如下图所示 修改之前的代码是: def blstm_layer(self, embedding_chars): with tf.variable_scope('rnn_layer'): cell_fw, cell_bw = self._bi_dir_rnn() if self.num_laye...原创 2018-12-18 16:58:51 · 464 阅读 · 0 评论 -
基于深度学习的命名实体识别详解(附Github代码)
命名实体识别(NER)是在自然语言处理中的一个经典问题,其应用也极为广泛。比如从一句话中识别出人名、地名,从电商的搜索中识别出产品的名字,识别药物名称等等。传统的公认比较好的处理算法是条件随机场(CRF),它是一种判别式概率模型,是随机场的一种,常用于标注或分析序列资料,如自然语言文字或是生物序列。简单是说在NER中应用是,给定一系列的特...转载 2018-09-27 14:32:03 · 5662 阅读 · 1 评论 -
深度学习-超参数调整总结
在深度神经网络中,超参数的调整是一项必备技能,通过观察在训练过程中的监测指标如损失loss和准确率来判断当前模型处于什么样的训练状态,及时调整超参数以更科学地训练模型能够提高资源利用率。在本研究中使用了以下超参数,下面将分别介绍并总结了不同超参数的调整规则。(1)学习率学习率(learning rate或作lr)是指在优化算法中更新网络权重的幅度大小。学习率可以是恒定的、逐渐降低的,基于动...转载 2018-09-26 16:41:23 · 3036 阅读 · 0 评论 -
CNN文本分类
文本分类是NLP领域的一个重要的子任务,文本分类的目标是自动的将文本打上已经定义好的标签,常见的文本分类任务有:垃圾邮件过滤、情感分析、新闻分类等等。代码是来自https://github.com/gaussic/text-classification-cnn-rnn大家可以自行下载阅读,下面仅仅是自己对代码的一个解读,仅此而已,若有不合适的地方,希望大家多多指出,共同交流1、任务...原创 2018-09-20 08:33:46 · 7886 阅读 · 10 评论 -
深度学习必会的知识点
深度学习在比较火的时候,很多人想从事这方面的工作,但是深度学习有哪些必须会的知识点呢?我在学习的过程中,慢慢的学习,慢慢积累,现将会的一部分记录了下来,会慢慢的更新的1、CPU与GPU的区别CPU:Central Processing Unit中央处理器,是一台计算机的运算核心和控制核心,GRU:Graphic Processing Unit图形处理器,一个专门的图形核心处理器,GRU...原创 2018-08-27 14:10:50 · 3811 阅读 · 1 评论 -
tf.get_variable函数的理解
之前一直理解的就是get_variable只是定义tensor的维度,并不给出值,但是后来写了程序运行一下才发现,不仅指定了维度,并且随机进行了初始化,代码如下:#coding:utf-8import tensorflow as tfpos1_embedding = tf.get_variable('pos1_embedding', [2, 5])with tf.Session() ...原创 2018-08-03 11:12:55 · 3866 阅读 · 0 评论 -
InvalidArgumentError (see above for traceback): Assign requires shapes of both tensors to match
在服务器上训练完的模型,copy到本地电脑进行测试模型,但是此时的测试语料是新的语料,存在“测试语料中的字不在之前的训练时生成的字典中”(本人做的是基于LSTM的命名实体识别的任务)的问题,在测试的过程中,运动下面的问题:InvalidArgumentError (see above for traceback): Assign requires shapes of both tensors ...原创 2018-07-31 16:27:25 · 6141 阅读 · 8 评论 -
基于LSTM/BLSTM/CNNBLSTM的命名实体识别任务代码的解析--3
程序主要包括:main.py 主程序model.py 神经网络模型设置程序pretreatment.py :数据预处理程序2、model.py在该py文件中,主要有一个父类,三个子类,分别对应网络:LSTM、BLSTM、CNNBLSTM现在对各个部分进行介绍父类已经在上一篇博客中介绍过了,今天主要是介绍三个网络的代码2)LSTMclass LSTM...原创 2018-07-23 09:34:14 · 2589 阅读 · 0 评论 -
tensorflow之tf.dynamic_rnn()的理解
最近在看基于LSTM的的NER的任务,但是对padding有一些不解的地方问题描述:实体标签的数量:7,分别用数字1、2、3、4、5、6、7表示,因为在padding部分的标签补的是0,所以魏从0开始表示,那么padding之后标签的为0、1、2、3、4、5、6、7,变成8个了,一直很困惑第8类标签到底是什么?但在测试的语料中也未找到第8类标签,大胆的猜测是因为padding部分并未加入计...原创 2018-07-27 09:46:00 · 2052 阅读 · 0 评论 -
基于LSTM/BLSTM/CNNBLSTM的命名实体识别任务代码的解析--2
程序主要包括:main.py 主程序model.py 神经网络模型设置程序pretreatment.py :数据预处理程序2、model.py在该py文件中,主要有一个父类,三个子类,分别对应网络:LSTM、BLSTM、CNNBLSTM现在对各个部分进行介绍1)父类由于篇幅的原因相关的程序代码在git上,大家自行下载对照阅读从main.py文件通过r...原创 2018-07-20 17:17:54 · 2314 阅读 · 0 评论 -
pad_sequences序列预处理
用法:pad_sequences = tf.contrib.keras.preprocessing.sequence.pad_sequenceskeras.preprocessing.sequence.pad_sequences(sequences,maxlen=None,dtype='int32',padding='pre',truncating='pre', value=0.)解释...原创 2018-07-25 14:50:04 · 16852 阅读 · 2 评论 -
基于LSTM/BLSTM/CNNBLSTM的命名实体识别任务代码的解析--1
原始代码来源于github,具体网址为:https://github.com/heshenghuan/LSTM-CRF.git但读入语料不是用的模板,而是自己写的读取数据的代码本人对深度学习的理解:处理数据:将数据处理成网络可以读取的格式 网络的搭建:“函数”的各种调用 训练:喂入神经网络数据进行训练,可能需要经过一定的时间 测试:对训练出的模型进行测试,并选取评估参...原创 2018-07-19 17:54:33 · 2711 阅读 · 0 评论