自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 吴恩达深度学习(3)在深度神经网络中的正向传播与反向传播,参数和超参数的定义

单样本:在第l层,有参数w^[l],b^[l]正向传播:输入激活函数g^[l],a^[l-1],输出a^[l]z^[l]=w^[l]a^[l-1]+b^[l] 存储z^[l],w^[l],b^[l](存储z^[l]的原因可以参考图2,在反向传播中会用到)a^[l]=g^[l](z^[l])反向传播:输入da^[l],之前存储的z^[l],输出da[l-1],dw[l],db[l]dz^[l]=da^[l]*g`^[l](z[l]) 这里的da^[l]解释如图3部分...

2021-11-02 13:06:22 606

原创 吴恩达深度学习(2)python应用下的深度学习,激活函数,神经网络的梯度下降法

import numpy as np //导入numpy库a=np.random.randn(5)//生成5个随机高斯变量,存储在数组a中print(a) //[ .......]print(a.shape) //(5,) 这是python秩为1的数组,既不是列向量也不是行向量a=np.randon.randn(5,1) //这是一个5行1列的矩阵print np.dot(a,a.T) //a与a转置的乘积assert(a.shape == (5,1)) //确认a的维度a=a.

2021-11-02 09:36:05 340

原创 吴恩达深度学习(1)关于课程里的各种w的解释

1.这里的w是一个n*1的矩阵,w^t是w的转置。w^t*x是一个1*1的矩阵2.w在一组样本里面是固定的,x(i)在变,而w一直是同一个矩阵。J(w,b)即在这个w,b的条件下,所有样本的表现。3. 利用梯度下降法对w进行更新,目的为找到使得J(w,b)最小的w,b4.如图理解,其中w1,w2利用梯度下降法更新有点疑问5. 同样如图所示6....

2021-11-02 08:10:30 1987

原创 关于filter()函数例题的简单理解(自用)(内有引用,侵删)

例题来自filter - 廖雪峰的官方网站def _odd_iter(): n = 1 while True: n = n + 2 yield ndef _not_divisible(n): return lambda x:x % n>0def primes(): yield 2 it=_odd_iter() while True: n=next(it) yield n

2021-10-11 09:09:02 291

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除