![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 67
Hler
这个作者很懒,什么都没留下…
展开
-
深度学习--优化函数
优化函数SGDMomentumAdaGradAdamSGDW<−−−W−ηδL/δWW <--- W - η δL/δWW<−−−W−ηδL/δW这里需要更新的权重参数记为W,把损失函数关于W的的梯度记为δL/δW,η表示学习率。代码实现:def SGD: def __init__(self,lr=0.01): self.lr = lr def update(self,params,grads): for key in par原创 2021-08-03 12:01:20 · 662 阅读 · 0 评论 -
深度学习--损失函数
损失函数均方差交叉熵误差mini-batchmini-batch版交叉熵误差损失函数是表示深究网络性能的“恶劣程度”的指标,即当前的神经网络对监督数据在多大程度上拟合,在多大程度上是不一致均方差E=1/2∑k(yk−tk)2E = 1/2\sum_{k}(y_k - t_k)^2E=1/2k∑(yk−tk)2yk表示神经网络的输出,tk表示监督数据,k表示数据的维度y = [0.1,0.05,0.6,0.0,0.05,0.1,0.0,0.1,0.0,0.0]#softmax函数的输出值t原创 2021-08-02 20:22:51 · 427 阅读 · 0 评论 -
深度学习-神经网络
深度学习-神经网络多维数组的运算3层神经网络的实现恒等函数softmax函数多维数组的运算1.多维数组A = np.array([1,2,3,4])#一维数组B = np.array([[1,2], [3,4], [5,6]])#二维数组A.shape#结果是一个元组tuple,(4,) 二维数组返回的元组是(4,3),三维数组返回的元组是(4,3,2)np.ndim(A)#获得数组维度A.shape得到的二位数组(4,2) 表示(行,列)2.矩阵乘积A = np.原创 2021-08-02 19:03:10 · 351 阅读 · 0 评论 -
深度学习入门--激活函数
这里写目录标题神经网络激活函数1.sigmoid函数2.阶跃函数神经网络激活函数h(x)函数会将输入信号的总和转换为输出信号,这中函数一般称为激活函数。a=b+w1x1+w2x2−>y=h(a)a =b+w1x1+w2x2-> y=h(a)a=b+w1x1+w2x2−>y=h(a)神经元内部激活函数h(x)1.sigmoid函数h(x)=1/(1+exp(−x))h(x) = 1/(1+exp(-x))h(x)=1/(1+exp(−x))2.阶跃函数h(x)=1原创 2021-08-02 16:19:48 · 334 阅读 · 1 评论 -
深度学习入门--感知机
感知机感知机接受多个输入信号,输出一个信号。感知机只有“流/不流”(0/1)两种取值,“0”表示不传递信号,"1"表示传递信号。x1,x2是输入信号,y是输出信号,w1,w2表示权重,图中的⭕表示神经元。神经元会计算传送过来的信号的总和,只有当这个总和超过了某个界限值时,才会输出1。这个称为“神经元被激活”。y={0,w1x1+w2x2≤01,w1x1+w2x2>0y= \begin{cases} 0, & \text {w1x1+w2x2≤0} \\ 1, & \text{w原创 2021-07-29 10:41:46 · 186 阅读 · 0 评论 -
tensorflow实现线性回归
tensorflow实现线性回归单变量线性回归x,y使用tf.keras建立模型单变量线性回归x,y单变量线性回归算法,比如表示学历,f(x)表示收入:f(x)=ax+bf(x) = ax + b f(x)=ax+b使用f(x)映射输入值和输出值。通过训练来实现预测。预测目标与损失函数:我们的目标是预测函数f(x)与真实值之间的在整体误差最小。f(x)预−f(x)真f(x)预-f(x)真f(x)预−f(x)真但是两者之间的差值,可正可负;那么对应函数可以使用均方差来实现成本函数,也就是预测值和真原创 2021-07-31 16:50:35 · 142 阅读 · 0 评论