![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
李宏毅
既往不恋未来不迎
这个作者很懒,什么都没留下…
展开
-
台大李宏毅Machine Learning学习笔记(三)——线性回归代码和误差来源
线性回归的代码实现x_data = [338., 333., 328., 207., 226., 25., 179., 60., 208., 606.]y_data = [640., 633., 619., 393., 428., 27., 193., 66., 226., 1591.]#十个宝可梦的数据,线性模型#y_data=b+w*x_data#视频上的代码没有导入相关要用的模...原创 2019-07-23 19:50:30 · 221 阅读 · 0 评论 -
台大李宏毅Machine Learning学习笔记(六)——逻辑回归(Logistic Regression)
在分类里面我们得到了函数(1)σ(z)=1(1+exp(−z))\sigma(z)=\frac1{(1+exp(-z))}\tag1σ(z)=(1+exp(−z))1(1)称之为逻辑函数(Logistic function),也称为Sigmoid函数。图1 逻辑函数 先把线性特征求和,再代入该函数,得到(2)fw,b=σ(∑iwixi+b)f_{w,b}=\sigma(\sum_iw_ix...原创 2019-07-30 21:51:38 · 171 阅读 · 0 评论 -
台大李宏毅Machine Learning学习笔记(七)——深度学习(Deep Learning)简介
深度学习发展历程图1 深度学习发展历程图2 深度学习的步骤 深度学习的三个步骤和前面机器学习几乎一样,讲起来比较简单,就像把大象放进冰箱的三个步骤一样:第一步打开门;第二步把大象放进去;第三步关门。但是做起来会遇到各种各样的问题。 第一步里面的函数其实就是神经网络,在上一讲的最后说过,神经网络其实就是逻辑回归单元的级联,图3 神经网络 神经元之间连接方式需要人工拟定,最常见的方式...原创 2019-07-31 15:23:25 · 429 阅读 · 0 评论 -
台大李宏毅Machine Learning学习笔记(四)——梯度下降
回顾笔记二中求参数w,bw,bw,b用的梯度下降法。在此,我们讲几个问题。小心地调节learning rate 如果learning rate太小,步伐太短,会需要很长时间才能到达极小值点,而如果步伐太大,会出现一直在极小值点附近振荡的情况,从而无法真正到达极小值点,甚至有可能会偏离极小值点,出现发散的情况,如图所示:图1 当参数多余两个的时候,不能够直观的在图上显示出来运动的轨...原创 2019-07-26 20:49:24 · 169 阅读 · 0 评论 -
台大李宏毅Machine Learning学习笔记(五)——分类
1. 分类,顾名思义就是给我们一堆输入,某种规则将它们分为几类,例如利用信用卡信誉积分将顾客分为几档,从而决定是否给与贷款;根据病人的年龄、症状、患病时间来判断病人所患的病也是一种分类等等。现在还是以宝可梦为例,假设现在随着宝可梦越来越多,我们想要知道新抓的宝可梦是属于哪一种属性的。 先来看看假如用前面学过的线性回归的方法将它作为二值分类来解决会出现什么情况。图1 线性回归失效 如图,...原创 2019-07-28 09:55:58 · 198 阅读 · 0 评论