mysql 李天生_笔记:《零基础搞定机器学习及深度学习(覃秉丰)》

引自:《零基础搞定机器学习及机器学习》(网易云课堂 - 覃秉丰)

线性回归

回归分析最典型的例子就是“房价预测”。

2251fdb35315b82db7f6f1accdf2e576.png

代价函数

be730094c0b0c7555aefdfa6f68b07fa.png

相关系数

5ba9101dc18662b09eeeea751d810c30.png

决定系数

147239c2e430d3abaff220719610e8dd.png

y为真实值,加 - 表示均值,加 ^ 表示预测值。

梯度下降法

9aee1fe7ae1128eb65b72b8f53cedc20.png

用梯度下降法求解线性回归

c8e02ab44250b30b39481ac4edf8c9a7.png

对代价函数J(θ)的求偏导,并利用梯度下降法更新权值,不断迭代……

2c143e93e06f26386bdcd57edc407399.png

多元线性回归

464548d11143b43b1f5f402facdc8a68.png

模型方程,以及代价函数:

cc7f0f4c730c99be69495c02a07f85ad.png

运用梯度下降法(求偏导,迭代更新权值):

33c107d84774b09885744d6ad39f28b4.png

多项式回归

标准方程法

e377aa6634f0f0831735c307922b227e.png

例如:以下为多元房价特征,进行房价预测:

f038d6eb3583895c1db32302829bdc4c.png

7c4112b20dfca80d0789a2dccdd9bc70.png

这里,将多个特征作为方程的因变量(多元特征向量),对w求导时就涉及到向量的导数:

d9e86dc1c23f4f35d4cc4f8e2d24827b.png

a0ad5a01a53b84ce8a7a65cec488c7d2.png

e6ac3a10c20e12ad5d397db658dac793.png

对比梯度下降法与标准方程法

7a25b9b0569649b8a94d04ea7dbf486f.png

其他概念

数据归一化

1e69e0f3a249fc37ce99758bcea7d84c.png

均值标准化

461706961070ea91c3d6bfebde3fd95c.png

交叉验证法

适用于数据较少时对特征的训练

过拟合

e4806883fdb8c3b4cc7ff4862b0e005b.png

正则化(Regularized)

用于防止过拟合

c5ac3de921cee38e932e006b2a057e08.png

岭回归(Ridge Regression)

19c506873997c91c4c5200689a6b935b.png

代价函数,采用L2正则化:

324a83416bcd12f9cb3cd80b50058f92.png

fbe3b51f4ef6454a36b56d4d40ee6a65.png

f9ee97d7f628c4ebab56f52af3f7e26a.png

LESSO

d2f5df90707b363511d57f23e1abee01.png

f5fbd6d668d72227fe6e6a0c77a3c724.png

逻辑回归

Sigmoid/Logistic Function

d8e84041fa4229de8ce655ab88dd5d5d.png

决策边界

71b879ab07759be8ed9eb3090bcc5ac0.png

逻辑回归的代价函数

f795e30a9e8ffb0a6d19c28e6af4f4b5.png

6b5db820d18d866c8fb3c86df19ff511.png

利用梯度下降法求解代价函数的最小值:

2a82bed10b89b45b33a8f72f4aa02981.png

abdd03841e77d2b4ea41fbdc28d87fc0.png

多分类问题

71f7a416757ec86a61f1299708578e94.png

逻辑回归的正则化

5405bb677336966c1038321e3d4fbd59.png

正确率和召回率

2ca16d1132830abcb18b2ec718523188.png

cfad039daf142d321f95e642f4801b8c.png

正确率与召回率的指标

7ce1aab535ae3fb3480f5fd11e3c88d2.png

KNN

92afbb941debfb9490f5ac19d6cba9ff.png

6ad114516c71c5fc2178352204ca34d7.png

决策树

818d0a9ed50ea9b92d67ae6792fd3290.png

a28d46ad54b6a03ce2accbe004f504c7.png

591a661f515e70886e3fa1b747babcac.png

8532fad3d7ff99f45f21eff3f6bd0b7b.png

ID3算法

4d6ac250739d6795de46f8795b54cd5f.png

c29adb0a472bdcca255cf18f3ef09e6c.png

C4.5算法

8da0826d4b14135edaa519eff8d8df61.png

CART算法

498a0cbdfb475654d3f2e9c4ec47fb8d.png

c6eee05a1f8cdc6c1194a1e9421e184d.png

5e734e497a5d6e0f9722316fd0450f04.png

e9fc5ffdb8450fe2809884ceb70ef07e.png

d8bd4ea4ec6f92f9705938cc7873c03f.png

剪枝:预剪枝、后剪枝

28840be2675783ead93fd3da5c893213.png

决策树的评价(适用领域)

有点:小规模数据集有效

缺点:

处理连续变量不好

类别较多时,错误增加的比较快

不能处理大量数据

集成学习

d245669051cfc881df6d16d966b36d9f.png

Bagging

首先,进行一种有放回的抽样~

9ada8dbbdfa3aafc4e89a13096ce157d.png

4879aa1721efe49cef47ff6f0c7360ed.png

每个数据集,都采用一种不同的学习算法(或者同一个算法,得到不同的模型)

adb5f1b3d0b1b1841895c5e092294c01.png

效果如下:

cf90ca1b5d72e502fadc88501756f3af.png

随机森林

190f4e1e8fc0f2cf154ae7b495a32288.png

c3f6670e07984ea743aa053a0666019a.png

boosting(Adaptive Boosting,自适应增强)

学习器的重点放在“容易”出错的地方——增加出错数据的概率(样本采样的权值)。

41f0c1b06e7994e4fba303dbf15bbd6c.png

c677240ec342cba94b7b6591d9ef8453.png

Stacking

使用多个不同的分类器对训练集进行预测,把预测得到的结果作为次级分类器的输入。次级分类器的输出则是整个模型的最终预测结果。

集成学习的总结

——人多力量大、集众家之言,以民主的方式决定正确的预测结果。

77f4c79cba7d8d058ea5fab723f0eb5c.png

贝叶斯分析

4b3219598ed0ff0f747cb125d9788728.png

0c30f88523f36af57fd33cd6ac1f1bb5.png

4e9bfb8168b61d49fe539d1010b04d53.png

749c874d8e9fa875c66d23d5a451f1a3.png

朴素贝叶斯

多特征时的概率计算,会导致计算量巨大……

b5a7e076bebab099903348222af2a183.png

朴素贝叶斯算法,会假设特征X1, X2, X3...之间是相互独立的,则

cdc7ebf0bc2b044a21c20c3d1181f777.png

贝叶斯多项式模型

287ba00e60aa7480c0c9766bc0350162.png

伯努利模型

混合模型

95f22c0bf4c456f4b533729ab6d49f3e.png

高斯模型

常用于处理连续性变量。

409eb7a4f109d5e8f361bfd71b276c62.png

大脑中的贝叶斯

a6568721ee06124c1e7023995f3ad279.png

聚类算法

无监督式学习——

c17287bc940dedd303f41adb9e3a5ce6.png

K-MEANS

857aad43aaf9e04512f3874c548adcd4.png

G:归类

C:计算重心,然后调整中心点

b6ae56ecddcfba24fcb119d3e70b7541.png

b7b72a0f47747d1743eede8c8ae0c0fa.png

fbc5d0b540522e5faf2ef8f505b4aab6.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值