- 博客(4)
- 收藏
- 关注
原创 吴恩达深度学习(3)在深度神经网络中的正向传播与反向传播,参数和超参数的定义
单样本:在第l层,有参数w^[l],b^[l]正向传播:输入激活函数g^[l],a^[l-1],输出a^[l]z^[l]=w^[l]a^[l-1]+b^[l] 存储z^[l],w^[l],b^[l](存储z^[l]的原因可以参考图2,在反向传播中会用到)a^[l]=g^[l](z^[l])反向传播:输入da^[l],之前存储的z^[l],输出da[l-1],dw[l],db[l]dz^[l]=da^[l]*g`^[l](z[l]) 这里的da^[l]解释如图3部分...
2021-11-02 13:06:22
606
原创 吴恩达深度学习(2)python应用下的深度学习,激活函数,神经网络的梯度下降法
import numpy as np //导入numpy库a=np.random.randn(5)//生成5个随机高斯变量,存储在数组a中print(a) //[ .......]print(a.shape) //(5,) 这是python秩为1的数组,既不是列向量也不是行向量a=np.randon.randn(5,1) //这是一个5行1列的矩阵print np.dot(a,a.T) //a与a转置的乘积assert(a.shape == (5,1)) //确认a的维度a=a.
2021-11-02 09:36:05
340
原创 吴恩达深度学习(1)关于课程里的各种w的解释
1.这里的w是一个n*1的矩阵,w^t是w的转置。w^t*x是一个1*1的矩阵2.w在一组样本里面是固定的,x(i)在变,而w一直是同一个矩阵。J(w,b)即在这个w,b的条件下,所有样本的表现。3. 利用梯度下降法对w进行更新,目的为找到使得J(w,b)最小的w,b4.如图理解,其中w1,w2利用梯度下降法更新有点疑问5. 同样如图所示6....
2021-11-02 08:10:30
1987
原创 关于filter()函数例题的简单理解(自用)(内有引用,侵删)
例题来自filter - 廖雪峰的官方网站def _odd_iter(): n = 1 while True: n = n + 2 yield ndef _not_divisible(n): return lambda x:x % n>0def primes(): yield 2 it=_odd_iter() while True: n=next(it) yield n
2021-10-11 09:09:02
291
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人