Deep Learning笔记——第一课第二周编程笔记(无代码)

笔记内容都是记录对我有意义的方面,供我以后个人复习参考,打扰大家,还望海涵。

第二周任务一笔记:

np.linalg.norm()函数:

官方解释网址:https://numpy.org/doc/1.18/reference/generated/numpy.linalg.norm.html

np.linalg.norm(xord=Noneaxis=Nonekeepdims=False)

参数解释:

x:输入矩阵

如果参数axis为None,x必须为一维或者二维,除了ord为None时。如果ord和axis都为None,则返回的是norm of x.ravel。

ord:可选输入

范数类型

图片来自:https://blog.csdn.net/hqh131360239/article/details/79061535

axis:可选输入

值为1时,求各行的范数;值为0时,求各列的范数;值为None时,求矩阵的范数。

keepding:输出矩阵的特性

值为True时,表示保持输入矩阵的维度特性;值为False时,不保持矩阵的维度特性。


第二周任务二笔记:

预处理数据需要记住的一般步骤:

**What you need to remember:**

Common steps for pre-processing a new dataset are:

  • Figure out the dimensions and shapes of the problem (m_train, m_test, num_px, ...) 
  • Reshape the datasets such that each example is now a vector of size (num_px * num_px * 3, 1)
  • "Standardize" the data

np.dot() 函数:

官方网址: https://numpy.org/doc/1.18/reference/generated/numpy.dot.html

numpy.dot(about=None)

参数解释:

1. 当a和b是一维时,得到的是向量的内积;

2. 当a和b是二维时,得到的是矩阵乘积,但是建议使用matmul或者a @ b进行计算;

3. 当a或者b是0维时,作用相当于multiply,并且建议使用multiply(a,b) 或者 a*b;

4. 当a和b是多维时,就是矩阵和矩阵相乘。

总结步骤:

1. 预处理数据:preprocess()

2. 初始化参数:initialize()

3. 梯度下降(Gradient descent):前向传播和后向传播

   propagate()->optimize()

4. predict()

5. Merge all functions into a model

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值