机器学习中的数学(1):MIT大牛写的综述

“ 想要深入了解机器学习和深度学习背后的数学支撑?想要避免成为调包侠?想要做更前沿更基础的研究?不仅是 Import xxx as xx,这里是***“机器学习中的数学”***第一篇,带你从宏观上认知AI背后的数学 ”

图片若挂了,大家可以移步
https://mp.weixin.qq.com/s?__biz=MzU4NTY1NDM3MA==&mid=2247483795&idx=1&sn=303cf4af7636825c59e59076df929b9e&chksm=fd86089ecaf18188f5b6aba3674fc0a24d563bee5bf8d8df31ee3d5dae8cfa3be17f66fd7a97&token=255604471&lang=zh_CN#rd

00 导言

机器学习的数学原理(1):宏观介绍篇
申明:本文内容来源于一位MIT大牛对机器学习中的数学的综述,原文地址已经找不到了(如果有人知道原文地址的话,不妨与大家分享),我将内容转来与大家分享,并做了一些改动和补充(主要是增加了凸优化与非凸优化的部分,并在文末贴上了一些数学课程的学习资料),以下是文章内容。

从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识。Learning和Vision都是很多种数学的交汇场。看着不同的理论体系的交汇,对于一个researcher来说,往往是非常exciting的enjoyable的事情。不过,这也代表着要充分了解这个领域并且取得有意义的进展是很艰苦的。记得在两年前的一次blog里面,提到过和learning有关的数学。今天看来,我对于数学在这个领域的作用有了新的思考。

01 代数与统计

对于Learning的研究,Linear Algebra (线性代数) 和 Statistics (统计学) 是最重要和不可缺少的。这代表了Machine Learning中最主流的两大类方法的基础。一种是以研究函数和变换为重点的代数方法,比如Dimension reduction,feature extraction,Kernel等,一种是以研究统计模型和样本分布为重点的统计方法,比如Graphical model, Information theoretical models

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值