- 博客(6)
- 收藏
- 关注
原创 numpy 定义一个rnn_cell_backward
参数解释: da_next上一个rnn_cell传回的梯度 先对复合函数求导,才能对函数里面的数求偏导: ,其中所以又梯度是由上一个rnn单元传回,所以dtanh = dtanh*da_next #对应元素相乘import numpy as npdef softmax(x): e_x = np.exp(...
2019-07-16 17:02:48 226
原创 numpy 定义 lstm_forward(time-step=7)
遗忘门: 更新门: 输出门: 候选值: 记忆单元: 隐藏单元: import numpy as npdef softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0)def sigmoid(x): return 1 / (1 ...
2019-07-15 23:59:50 679
原创 numpy 定义 rnn_forward(time-step=4)
import numpy as npdef softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0)#一个rnn单元的前向运算def rnn_cell_forward(xt, a_prev, parameters): Wax = parameters["Wax"] Waa =...
2019-07-15 23:17:23 434
原创 numpy 定义一个rnn_cell_forward
import numpy as npdef softmax(x): e_x = np.exp(x - np.max(x)) return e_x / e_x.sum(axis=0)def rnn_cell_forward(xt, a_prev, parameters): Wax = parameters["Wax"] Waa = para...
2019-07-15 21:25:02 317
转载 tensorflow 2.0 学习笔记 数据类型及tensor 的创建
import tensorflow as tfimport numpy as np''' tensor 的类型 '''a=tf.constant(1) #int型b=tf.constant(1.) #float型 c=t...
2019-07-02 22:56:21 713
转载 tensorflow 2.0 学习笔记 索引与切片
import tensorflow as tfa=tf.random.normal([4,28,28,3])a[1].shapea[1,2].shapea[1,2,3].shapea[1,2,3,2].shape''' start:end '''b=tf.range(10)b[-2:]b[:3]''' : 的运用-->全选 '''a[:,0,:,:]...
2019-07-02 22:39:46 202
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人