深度学习入门到放弃
To_be_thinking
不积跬步,无以至千里。因为热爱而充满激情与斗志!!!
展开
-
RNN、LSTM、GRU、DeepRNN和BiLSTM
RNN(Recurrent Neural Network)Ht=ϕ(XtWxh+Ht−1Whh+bh)(1)\boldsymbol H_t=\phi(X_tW_{xh}+H_{t-1}W_{hh}+b_h) \tag 1Ht=ϕ(XtWxh+Ht−1Whh+bh)(1)OUTPUTt=HtWhq+bq(2)\boldsymbol {OUTPUT_t}=\boldsymbo...原创 2020-03-01 16:56:02 · 883 阅读 · 0 评论 -
基于LSTM和TextCNN的文本情感分析
typora-root-url: imgPipeline读取评论数据和情感标签预处理文本数据创建数据迭代器建立神经网络模型加载预训练词向量训练模型模型评价LSTM对于给定序列{X1,X2,...,XT}\{ \boldsymbol X_1,\boldsymbol X_2,...,\boldsymbol X_T\}{X1,X2,...,XT},其中,Xt∈Rn×d\boldsymb...原创 2020-02-28 20:31:20 · 3171 阅读 · 0 评论 -
图像处理中的深度卷积神经网络
typora-root-url: img输出尺寸(oho_hoh,owo_wow)与输入尺寸(nhn_hnh,nwn_wnw)、核尺寸(khk_hkh,kwk_wkw)、padding(php_hph,pwp_wpw)和stride(sws_wsw,shs_hsh)的关系oh=(nh+ph−kh+sh)/show=(nw+pw−kw+sw)/swo_h=(n_h+p_...原创 2020-02-18 17:00:24 · 580 阅读 · 0 评论 -
语言模型的随机采样和相邻采样
自然语言数据可以看成一种特殊的时间序列数据。对于这种时序数据的采样主要有有随机采样和相邻采样两种方式。两者都需要确定一个batch的样本数量batch_size和每个样本的时间步长num_steps。随机采样步骤:语料库corpus_indices的长度为nnn,首先按照时间步长确定可能的样本的起始索引,可能的样本起始索引最后被随机打散。这里注意:采样的单个样本的最后一个单词不可能是序列的最后...原创 2020-02-14 16:39:01 · 798 阅读 · 0 评论 -
numpy和Pytorch的广播机制
广播(broadcast)规则对于两个数组,对于它们的维度元组倒序看,当两者在当前维度的尺寸相等或者有一个为1,则在当前维度兼容,只需要将尺寸为1的按照另一个较大的尺寸在该维度延展。如果某一个数组维度少则用1来补。高维度矩阵广播也可以按照这个来分析。示例Pytorch中的视图方法(view)def squared_loss(y_hat, y): return (y_hat - y.v...原创 2020-02-12 10:46:09 · 591 阅读 · 0 评论 -
tensorflow初探
深度学习早就在本科时候就已经接触了,之前也学了不少,但是不够体系化。现在从MNIST系统学习一下啊,这一篇主要是学习官方文档http://www.tensorfly.cn/。使用tensorflow进行网络设计时,需要先使用tf.placeholder和tf.Variable进行占位符(容器)设定和网络参数变量(也可以理解成占位符)初始化。tf.Variable用于存储权重矩阵和偏置向量,tf...原创 2019-06-13 01:56:35 · 169 阅读 · 0 评论