神经网络
文章平均质量分 60
来杯黑美式
github:https://github.com/laiba345
展开
-
LSTM模型(大白话+公式推导)
在LSTM中的每个时间步里面,都有一个记忆cell,这个东西给予了LSTM选择记忆功能,使得LSTM有能力自由选择每个时间步里面记忆的内容。也就是在这个时间步当中;我可以通过一些操作来确定我哪一些东西我需要记忆;哪一些我需要忘记掉;原创 2023-03-26 19:21:22 · 4524 阅读 · 1 评论 -
GRU & LSTM(李沐 && 李宏毅)
(引入了两个门;多了可学习权重)原创 2023-03-23 11:36:09 · 807 阅读 · 0 评论 -
神经网络应用实例 -- python
# 导包import numpy as np# 前向传播函数 H = X * W1 + b1 对应下面程序当中的x, w, b# 前向传播函数# - x:包含输入数据的numpy数组,形状为(N,d_1,...,d_k)# - w:形状为(D,M)的一系列权重# - b:偏置,形状为(M,)# 程序中的输入参数x,其形状可以是(N,d_1,...,d_k)# 比如说x是一个4行2列的二维数组,那么N = 4,d_1 = 2def affine_forward(x, w, b): o原创 2021-11-18 21:46:50 · 1414 阅读 · 0 评论 -
神经网络 -反向传播到底是怎么传播的?
神经网络 -反向传播到底是怎么传播的?1. 链式法则2、反向传播 – 几种典型节点的反向传播算法加法节点乘法节点仿射交换这是神经网络里的一个重要形式单元。这个图片看起来虽然复杂,但其实和乘法节点是类似的,我们对X求导,结果就是W1;对W1求导,结果就是X,到这里和乘法节点是一样的;对b1求导,结果为1,原封不动地流入即可。不过需要注意的一点是,这里的相乘是向量之间的乘法。ReLU层- Softmax-with-LossSoftmax-with-Loss指的就是原创 2021-11-18 17:08:11 · 715 阅读 · 0 评论 -
神经网络入门
神经网络入门:读别人文章记录通过一个简单分类任务来进行描述:两层神经网络上面可能会有点复杂,进行简单分析去掉上面图一当中一些难懂的东西,简化变成下图:输入层从输入层到隐藏层从隐藏层到输出层分析激活层三种常见的激活函数:1、阶跃函数:当输入小于等于0时,输出0;当输入大于0时,输出1。特点:阶跃函数输出值是跳变的,且只有二值,较少使用。2、Sigmoid:当输入趋近于正无穷/负无穷时,输出无限接近于1/0。特点:Sigmoid函数在当x的绝对值较大时,曲线的斜率变原创 2021-11-17 21:28:16 · 1562 阅读 · 0 评论