- 博客(3)
- 资源 (1)
- 收藏
- 关注
原创 Coursera 吴恩达 第三周
1.Classification and Representation为了解决分类问题,一个方法就是用线性回归将所有大于0.5的预测视做1,小于0.5的预测视做0.但这种做法通常不能很好工作。分类问题和回归问题很相像,除了一点,分类问题的输出值是离散的,例如:0或1。我们首先讨论二元分类问题:y的取值只有0或者1.忽略掉y的取值,我们仍然可以构想分类问题类似回归问题,用线性回归来...
2019-05-16 21:59:31 272
原创 coursera 吴恩达 第二周
1.Multiple Features当有多个特征值的时候:这时候,我们的假设函数应修改为为了结构统一,我们假设这样子,变量就向量化了。注意x和theta都是n+1维向量。新的梯度下降算法:Feature Scaling(特征缩放)如果特征值的范围大小相差太大,那么用梯度下降会面临很糟糕的情况,想象一下,如果只有theta0和theta1,这两个变...
2019-05-16 18:14:30 355
原创 coursera 吴恩达 第一周
第一周什么是机器学习?Tom Mitchell provides a more modern definition:A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance...
2019-05-16 16:38:07 169
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人