![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
李宏毅机器学习
zyuPp
你今日练习了吗?
展开
-
李宏毅机器学习-----Regression回归
李宏毅机器学习-----RegressionRegression 的一些应用:预测股票市场走向找到一个function,input = 过去十年的股票资料,output = 可以预测明天股票指数自动驾驶找到一个function,Input = 无人车感测周围物体和人,output=方向盘的角度推荐系统找到一个function,Input=使用者A看某个商品B ,outpu...原创 2019-07-25 15:12:14 · 390 阅读 · 0 评论 -
李宏毅机器学习-----分类:概率生成模型
上期回顾,上一期我们把gradient descent详细的说了一遍,如果还是不熟悉的可以重新看一遍,反正我也还没有十拿九稳的拿下它,因为数学基础太差了,要补好数学,才能有更深的理解,放上链接:李宏毅机器学习-----Gradient Descent分类:概率生成模型分类问题的思想与前面所说的回归问题很类似,也是输入x,找到一个function(即model),然后输出这个x属于哪个clas...原创 2019-08-12 22:41:17 · 972 阅读 · 7 评论 -
李宏毅机器学习------用Keras创建神经网络
Keras介绍Keras是用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行手写数字识别Demo手写数字识别可以说是神经网络搭建的“ hello wolrd ”,我们从MNIST Data获取data做实验,这个数据集可以帮助我们去做一些小实验。第一步:定义模型我们想建立两层hidden layers,每层...原创 2019-08-16 10:34:46 · 267 阅读 · 0 评论 -
李宏毅机器学习-----Back propagation反向传播
反向传播的背景原创 2019-08-13 17:46:03 · 355 阅读 · 0 评论 -
李宏毅机器学习-----深度学习简介
Introduction of deep learning从逻辑回归引导到深度学习,李宏毅教授在前一节课生动形象地给我们稍微介绍了一下神经网络的模样,今天就正式介绍一下deep learning是什么,它的发展历史,以及deep learning的三板斧,马上进入正题!深度学习的历史发展要了解一样东西,我们必须要先从它的历史发展开始,知道它出现的原因以及它对我们产生了什么影响。上图已经把...原创 2019-08-13 12:23:38 · 1148 阅读 · 0 评论 -
李宏毅机器学习-----逻辑回归Logistic Regression
接上上一节的内容,我们认为通过概率模型最后推导出来函数还是为了求出最优的w和b,所以为什么不直接找一个function来直接求呢?那就是今天要介绍的Logistic Regretion!上节链接逻辑回归的Function Set后验概率Pw,b(C1∣x)P_{w,b}(C_1|x)Pw,b(C1∣x)就是σ(z)\sigma(z)σ(z),而z=wx+b,推导出function se...原创 2019-08-13 12:22:53 · 1040 阅读 · 0 评论 -
批量梯度下降法---python实现
BGD Batch Gradient Descent批量梯度下降法先推一波参考文献,我真的看了一天这个,其实还没研究透,蠢蠢的,所以先总结一下吧。批量、随机、小批量梯度下降理解梯度下降法python实现梯度下降法实现线性回归话不多说,show you the codeimport matplotlib.pyplot as pltimport numpy as npimport p...原创 2019-08-01 10:16:23 · 3151 阅读 · 1 评论 -
李宏毅机器学习-----Gradient Descent
Gradient Descent在学习Regression的时候,我们第一次接触到gradient descent这个概念,我们知道了它是用于找到最优的function,计算loss function的一种方法。我们的目的是计算L(θ\thetaθ)最小的时候,即找到最优的参数θ∗\theta^{*}θ∗.最小二乘法与梯度下降法的关系:相同点:1.本质相同:两种方法都是在给定已知数据的前...原创 2019-08-01 09:21:17 · 294 阅读 · 0 评论 -
李宏毅机器学习---机器学习介绍
1.Regression2.Bias & Variance原创 2019-07-16 17:29:09 · 154 阅读 · 1 评论 -
李宏毅机器学习-----Variance方差和Bias误差
上集链接:李宏毅机器学习-----Regression**回顾上集:**我们尝试提升model的复杂度来优化它,虽然它在训练集中表现得很出色,但是在测试集中却没有太大提升,反而当model越来越复杂的时候,Average error就会暴增,这就是Overfitting的现象。今天我们要探讨一下究竟这个error是从何而来,我们又可以通过什么方法就优化它。上图已经揭示了答案,error来...原创 2019-07-26 10:41:41 · 756 阅读 · 0 评论 -
李宏毅机器学习-----做深度学习的一些Tips
Tips for deep learning上面的步骤我们都非常熟悉了,定义模型,评估模型,选择最好的function,得到神经网络,检查在训练集中的表现,然后检查在测试集中的表现。为什么要做训练集的检查?在传统机器学习中,通常在训练集都会表现得比较好,但是在神经网络中,不一定会表现得好,有可能陷入了局部最优,这是需要回头检查哪个步骤出了什么问题,你可以做什么样的修改,在trainin...原创 2019-08-17 23:06:38 · 327 阅读 · 0 评论