【吴恩达深度学习课后作业】有点意思的课程测验知识点(课程1)第一周、第二周

1.常用的激活函数及对应图像:

(1)sigmoid函数                                             (2)tanh函数

(3) ReLU函数                                               (4)Leaky ReLU函数

2.监督式学习可分为结构化数据和非结构化数据。结构化数据指拥有数据的数据库;非结构化数据指音频、图像、文本信息等。

图像领域利用卷积神经网络(CNN)

序列数据(音频、语言等一维时间序列)利用循环神经网络(RNN)

3.运算符“*”说明按照元素的乘法来相乘。表示逐元素对应操作,需要两个矩阵之间的维数相同。而np.dot(a,b)则是在a和b上执行矩阵乘法。

广播的一些通用规则:m\times n大小的矩阵 “+、-、*、/ ” 一个 1 \times nm \times 1大小的矩阵,会将这个 1 \times nm \times 1大小的矩阵复制为一个m\times n大小的矩阵,并进行逐元素对应操作。结果为一个 m\times n大小的矩阵。 

矩阵乘法则是,a为m \times 1大小的矩阵,b为1 \times n大小的矩阵,矩阵相乘为 m\times n的矩阵。

4.第二周测验的第8题:

Consider the following code snippet:

# a.shape = (3,4)
# b.shape = (4,1)
for i in range(3):
    for j in range(4):
        c[i][j] = a[i][j] + b[j]

How do you vectorize this?

c = a + b.T

两层for循环:外层for循环遍历矩阵a的3行,i=0,1,2;里层for循环,矩阵a的第 i 行的第 j 个元素与b的第j行的元素相加,j=0,1,2,3。由于b是一个4行1列的矩阵,所以a的每一行加一遍b的每一列的转置,即c = a + b.T,其中便应用了广播机制。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五十赫兹小透明

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值