1.常用的激活函数及对应图像:
(1)sigmoid函数 (2)tanh函数
(3) ReLU函数 (4)Leaky ReLU函数
2.监督式学习可分为结构化数据和非结构化数据。结构化数据指拥有数据的数据库;非结构化数据指音频、图像、文本信息等。
图像领域利用卷积神经网络(CNN)
序列数据(音频、语言等一维时间序列)利用循环神经网络(RNN)
3.运算符“*”说明按照元素的乘法来相乘。表示逐元素对应操作,需要两个矩阵之间的维数相同。而np.dot(a,b)则是在a和b上执行矩阵乘法。
广播的一些通用规则:大小的矩阵 “+、-、*、/ ” 一个 或大小的矩阵,会将这个 或大小的矩阵复制为一个大小的矩阵,并进行逐元素对应操作。结果为一个 大小的矩阵。
矩阵乘法则是,a为大小的矩阵,b为大小的矩阵,矩阵相乘为 的矩阵。
4.第二周测验的第8题:
Consider the following code snippet:
# a.shape = (3,4)
# b.shape = (4,1)
for i in range(3):
for j in range(4):
c[i][j] = a[i][j] + b[j]
How do you vectorize this?
c = a + b.T
两层for循环:外层for循环遍历矩阵a的3行,i=0,1,2;里层for循环,矩阵a的第 i 行的第 j 个元素与b的第j行的元素相加,j=0,1,2,3。由于b是一个4行1列的矩阵,所以a的每一行加一遍b的每一列的转置,即c = a + b.T,其中便应用了广播机制。