笔记:神经网络与深度学习——机器学习1

一、关于概率的一些基本概念

概率(Probability):一个随机事件发生的可能性大小,为0到1之间的实数。
随机变量(Random Variable)
概率分布(Probability Distribution)

离散随机变量——伯努利分布伯努利分布
二项分布
连续随机变量——概率密度函数
高斯分布
累积分布函数(Cumulative Distribution Function, CDF)
:随机变量X的取值小于等于x的概率
随机向量联合概率分布、条件概率
采样(Samoling):给定一个概率分布,生成满足条件的样本,也叫抽样.

二、机器学习

机器学习~自动构建一个映射函数
在这里插入图片描述
现实世界的问题都比较复杂,很难通过规则来手工实现
如何构建映射函数:从大量数据中学习规律function
在这里插入图片描述
机器学习:通过算法使得机器能从大量数据中学习规律从而对新的样本做决策。
规律:决策(预测)函数
在这里插入图片描述

三、机器学习类型

常见的机器学习类型

1.典型的监督学习问题

在这里插入图片描述
回归的输出是一个Y值(实数,连续值),分类的输出是离散值0或1.

2.典型的无监督学习问题

四、机器学习的要素

数据——根据数据划分机器学习的类型,确定抽取特征
模型——从假设空间中选择最优模型
学习准则——判断学习的好坏
优化算法

1.模型

在这里插入图片描述

2.学习准则

一个好的模型应该在所有取值上都与真实映射函数一致
在这里插入图片描述
**损失函数(Loss Function):*损失函数是一个非负实数函数,用来量化模型预测和真实标签之间的差异。
平方损失函数(Quadratic Loss Function)
平方损失函数
期望风险
在这里插入图片描述
找到一个Theta使得R最小。
在这里插入图片描述
经验风险最小化(Empirical Risk Minimization, ERM):寻找一个参数theta
,使得经验风险函数最小化。
当风险函数确定之后,机器学习问题转化成为一个最优化问题。

3.最优化问题

在这里插入图片描述
学习率是非常重要的超参数!
在这里插入图片描述
随机梯度下降法SGD:在每次迭代时只采集一个样本
在这里插入图片描述
优点:每次计算开销小,支持在线学习
缺点:无法充分利用计算机的并行计算能力
解决办法:小批量(Mini-Batch)随机梯度下降法
随机选取一小部分训练样本来计算梯度并更新参数。既可以兼顾随机梯度下降法的优点,也可以提高训练效率
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值