机器学习与数学分析

机器学习与本课程示例概述
机器学习的角度看数学
数学分析
导数与梯度
Taylor展式的应用
概率论基础
古典概率
频率学派与贝叶斯学派
常见概率分布
Sigmoid/Logistic函数的引入
假如有房价数据:在这里插入图片描述
在这里插入图片描述
这个函数越低越好。给定某一种学习方式,按照不断地迭代,到达最低点,这样有点,损失函数最小,认为是最优参数,需要解决的几个问题:
1.模型是如何建立的(线性模型还是非线性模型)
2.目标函数是如何得到的
3.在迭代过程中,如何能让模型越来越好的学下去(梯度下降,牛顿法。。)
4.有些超参数,需要调参,如何调参
可能有些模型中没有预测值,我们把参数带进去就可以算出预测值
在这里插入图片描述
在这里插入图片描述
SVM:高斯核函数的影响
在这里插入图片描述
HMM分词
在这里插入图片描述
LDA
在这里插入图片描述
例如一个石油检测结果处理
在这里插入图片描述
能得到最突出的问题
在这里插入图片描述
对函数的上升速度
在这里插入图片描述
当x= 1的时候,一定经过(0,1),当a等于几,切线斜率为1呢
在这里插入图片描述
在这里插入图片描述
简单来说,导数就是曲线的斜率,是曲线变化快慢的反应
二姐导数是斜率变化快慢的反应,表征曲线的凹凸性,二姐导数连续的曲线,称之为光顺的(加速度的方向总是指向轨迹曲线凹的一侧)
在这里插入图片描述
在这里插入图片描述
Taylor公式- Maclaurin公式
在这里插入图片描述
方向导数:
在这里插入图片描述
梯度:

梯度下降:
在这里插入图片描述
y = x**2
梯度是如何下降的?
假设上图,从x=3处开始迭代,沿着y的倒数:2x,也就是23=6。假定学习率是0.1,那么就是3-60.1=2.4,跑到了2.4这个位置,这样不断下降
如果有一个幂函数xn,一个指数函数e-x现在让他们从0到正无穷进行积分
在这里插入图片描述
凸函数
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
介绍了机器中的数学知识,假设函数 是 上具有二阶连续偏导数的函数,考虑无约束优化问题: 表示目标函数的极小点。解无约束优化问题一般常用迭代算法,常用的迭代算法有梯度下降法,牛顿法和拟牛顿法。迭代公式为: 其中称为搜索方向,称为步长,为第k次迭代后x的值。不同的迭代算法的区别主要在搜索方向的确定上,而如何确定步长是另一个问题,这里不打算介绍。 假设函数 是 上具有二阶连续偏导数的函数,考虑无约束优化问题: 表示目标函数的极小点。解无约束优化问题一般常用迭代算法,常用的迭代算法有梯度下降法,牛顿法和拟牛顿法。迭代公式为: 其中称为搜索方向,称为步长,为第k次迭代后x的值。不同的迭代算法的区别主要在搜索方向的确定上,而如何确定步长是另一个问题,这里不打算介绍。 假设函数 是 上具有二阶连续偏导数的函数,考虑无约束优化问题: 表示目标函数的极小点。解无约束优化问题一般常用迭代算法,常用的迭代算法有梯度下降法,牛顿法和拟牛顿法。迭代公式为: 其中称为搜索方向,称为步长,为第k次迭代后x的值。不同的迭代算法的区别主要在搜索方向的确定上,而如何确定步长是另一个问题,这里不打算介绍。 假设函数 是 上具有二阶连续偏导数的函数,考虑无约束优化问题: 表示目标函数的极小点。解无约束优化问题一般常用迭代算法,常用的迭代算法有梯度下降法,牛顿法和拟牛顿法。迭代公式为: 其中称为搜索方向,称为步长,为第k次迭代后x的值。不同的迭代算法的区别主要在搜索方向的确定上,而如何确定步长是另一个问题,这里不打算介绍。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值