这个专栏主要是想和大家分享一下深度学习的基础知识,主要是以吴恩达老师深度学习课程内容作为基础,并补充了很多其他内容希望让整体内容更加容易理解和系统化。如果想要了解具体专栏里面有什么内容的话,可以看一看我们专栏的目录,在目录里面还说明了小伙伴的分工,这些内容都是所有小伙伴们一起努力完成的,有希望和我们一起学习的的小伙伴也可以加入我们啊。另外我们还将内容以书籍的形式放到了github上,之后还会陆续上传源码实现等其他内容。我们还会分享深度学习-论文阅读专栏、强化学习-基础知识专栏、强化学习-任务阅读专栏,也欢迎大家关注。可能会有很多错漏,希望大家批评指正!还是那句话,不要高估一年的努力,也不要低估十年的积累,与君共勉!
神经网络基础(Nerual network basic)
1. 二分分类
1.1 定义
对某个事件或者事物进行“是”或者“否”的判断,即可表示为如“0”和“1”两种数据形式。
1.2 数学定义
对某个事件的结果y进行判断

需要有一个期望值
h
θ
(
x
)
h_{\theta}\left(x\right)
hθ(x),使得:

最后根据期望值hθ(x)与0.5的大小,输出结果

当然,也不一定是将期望值与0.5去进行比较,因为最终得到的期望值其实并不完全等同于我们判断的概率,现实当中可以根据实际需要及时调整。
引用文献:https://blog.csdn.net/mathlxj/article/details/81490288
例子:对一张图片中的动物是否是猫。
具体的判断方法为:利用图片中的各个像素点的三原色(红、绿、蓝)的亮度值来表示图片的特征,并且将这些亮度值转换为n维特征向量作为算法的输入值,最后利用逻辑回归(logistic回归)算法等各种算法判断出图片中的动物是否是猫,最后给出对应的结果。
简单点说,分析图片三原色亮度值 → 获取特征向量作为输入 → logistic回归算法进行运算 → 输出判断结果
1.3 常用符号
| 符号 | 含义 | 作用 |
|---|---|---|
| x | x维特征向量 | 常用于表示图片的特征 |
| n x n_{x} nx或 n n n | 输入特征向量维度 | |
| y | 预测结果 | 二分类中用0或1表示结果 |
| (x,y) | 一个单独的样本 | 训练集的一个成员 |
| ( x ( i ) , y ( i ) ) \left(x^{(i)}, y^{(i)}\right) (x(i),y(i)) | 一个训练集中的第i个样本 | 区分训练集中的每个样本 |
| m或者m_train | 训练集样本个数 | |
| X = [ ⋯ ⋯ ⋯ x 1 x 2 ⋯ ⋯ ⋯ ⋯ ] X=\left[\begin{array}{ccc}\cdots & \cdots & \cdots \\ x^{1} & x^{2} & \cdots \\ \cdots & \cdots & \cdots\end{array}\right] X=⎣⎡⋯x1⋯⋯x2⋯⋯⋯⋯⎦⎤ | 大写X表示训练集中所有样本的输入特征向量的矩阵集合 | m列x行,作为输入矩阵 |
| Y = [ y ( 1 ) y ( 2 ) ⋯ ⋅ y ( m ) ] Y=\left[y^{(1)} y^{(2)} \cdots \cdot y^{(m)}\right] Y=[y(1)y(2)⋯⋅y(m)] | 训练集样本预期值矩阵 | 1*m矩阵 |
| z ( i ) z^{(i)} z(i) | sigmoid()函数对于样本i计算值 | 常用于表示样本i的计算值 |
| W ( i ) W^{(i)} W(i) | 表示第i层卷积层的参数W的特征向量 | 常用于sigmoid()函数的计算 |
| y ^ \hat{y} y^ | 对样本输入的预测向量 | |
| J ( x , W , b , y ) J(x,W,b,y) J(x,W,b,y) | 损失函数 |
需要注意,矩阵X不能用特征向量横向集合而成,即不能写成如下形式:
X = [ ⋯ x 1 ⋯ ⋯ x 2 ⋯ ⋯ ⋯ ⋯ ] X=\left[\begin{array}{ccc}\cdots & x^{1} & \cdots \\ \cdots & x^{2} & \cdots \\ \cdots & \cdots & \cdots\end{array}\right] X=⎣⎡⋯⋯⋯x1x2⋯⋯⋯⋯⎦⎤(错误)
1.4 多分类
本质上是在二分分类上的拓展,讲判断结果分成了更多的部分。例如,识别水果的种类是苹果还是西瓜,或者是香蕉。
本文旨在分享深度学习的基础知识,内容基于吴恩达老师的深度学习课程,并进行了补充和完善。介绍了二分类任务的基本概念,包括其数学定义、常用符号及多分类的拓展。适合初学者入门学习。
36万+

被折叠的 条评论
为什么被折叠?



