学习时间:
2024.6.29—2024.7.5
学习内容:
本周主要学习深度学习方面的内容。
- 吴恩达深度学习1.1-2.2
- 《动手学深度学习》
学习笔记:
1.2 神经网络的介绍
1.3 用神经网络进行监督学习
在监督学习中,输入x,通过学习训练得到一个函数,就可以映射输出y。例如:房价预测、在线广告、计算机视觉、语言识别、机器翻译、无人驾驶等等,
图像领域里,常用卷积神经网络(CNN)。RNN通过在图像上滑动各种卷积核,提取出图像的局部特征,层层叠加,最后得到复杂的图像特征。
2.1二分分类
这节课主要学会如何处理训练集。
神经网络的训练过程可以分为:前向传播和反向传播两个独立的部分。
逻辑回归(logistic regression)是一个用于二分类(binary classification)的算法。例如识别猫的二分类问题中,我们的目标就是习得一个分类器,它以图片的特征向量作为输入,然后预测输出结果为 1 还是 0,也就是预测图片中是否有猫。
一些符号定义 :
x:表示一个nx维数据,为输入数据,维度为(nx, 1);
y:表示输出结果,取值为(0,1);
(x(i),y(i)):表示第 i 组数据,可能是训练数据,也可能是测试数据,此处默认为训练数据;
X=[x(1),x(2),…,x(m)]:表示所有的训练数据集的输入值,放在一个 nx × m的矩阵中,其中m表示样本数目;
Y =[y(1),y(2),…,y(m)]::对应表示所有训练数据集的输出值,维度为1 × m。
用一对(x, y)来表示一个单独的样本,x代表nx维的特征向量,y表示标签(输出结果)只能为 0 或 1。 而训练集将由m个训练样本组成,其中(x(1),y(1))表示第一个样本的输入和输出,(x(2),y(2))表示第二个样本的输入和输出,直到最后一个样本(x(m),y(m)),然后所有的这些一起表示整个训练集。有时候为了强调这是训练样本的个数,会写作Mtrain,当涉及到测试集的时候,我们会使用Mtrain来表示测试集的样本数。
2.2逻辑回归(Logistic Regression)
回归学习算法适用于二分类问题。对于二元分类问题来讲,给定一个输入特征向量X,它可能对应一张图片,你想识别这张图片识别看它是否是一只猫或者不是一只猫的图片,你想要一个算法能够输出预测,你只能称之为
y
ˆ
\^y
yˆ,也就是你对实际值 y 的估计。你想让
y
ˆ
\^y
yˆ表示实际值y等于 1的机率的话,
y
ˆ
\^y
yˆ应该在 0 到 1 之间。
y
ˆ
\^y
yˆ=e(wTx+b),这叫做sigmoid函数。
sigmoid函数图像如上图所示,把水平轴作为z轴,那么关于z的 sigmoid 函数是平滑地从 0 走向 1,曲线与纵轴相交的截距是 0.5,我们通常都使用z来表示wTx+b的值。
当你实现逻辑回归时,你的工作就是去让机器学习参数w以及b,这样才使得
y
ˆ
\^y
yˆ成为对y = 1这一情况的概率的一个很好的估计。