![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
DetailAI
这个作者很懒,什么都没留下…
展开
-
【机器学习(李宏毅)】 一、Learning Map
Learning Map见下图: Regression:Classification: Semi-supervised Learning:Transfer Learning:Unsupervised Learning: Structured Learning:Reinforcement Learning:原创 2017-04-19 15:46:35 · 2249 阅读 · 0 评论 -
【机器学习(李宏毅)】 二、Regression: Case Study
回归问题:The output of the target function f is “scalar”.课程用例说明:针对的问题:估计pokemon进化之后的CP值Step1:选择模型注意:现只考虑一个参数即当前CP值Step2:模型好坏模型的好坏用损失函数来评价,公式见下图:Step3:最佳函数/模型即是求使得损失函数最小时,参数w和b的值使用梯度下降法来求解以只考虑一个参数原创 2017-04-19 16:11:07 · 2354 阅读 · 2 评论 -
【机器学习(李宏毅)】 三、Bias and Variance
本讲核心问题:Where does the error come from?Review:更复杂的模型不一定在测试集上有更好的表现误差由偏差“bias”导致误差由方差“variance”导致Estimator:f^\hat{f}是计算pokemon真正的函数,只有Niantic公司知道从训练集上,我们得出f∗f^{*},f∗f^{*}是f^\hat{f}的一个估计故像射击一样,靶心为f原创 2017-04-20 15:22:42 · 4320 阅读 · 0 评论 -
【机器学习(李宏毅)】四、Gradient Descent
课题:Gradient DescentReview:Gradient Descent任务是:求解使得损失函数L(θ)L(\theta)最小时的θ\theta参数θ∗\theta ^{*}。LL为损失函数;θ\theta为模型中的参数 。假设θ\theta有两个变量θ1,θ2{\theta _{1},\theta _{2}}看PPT,能理解θ2=θ1−η▽L(θ1)\theta ^{2}=\th原创 2017-04-21 16:56:52 · 2321 阅读 · 0 评论