Machine Learning
文章平均质量分 93
Dr_destiny
这个作者很懒,什么都没留下…
展开
-
Machine Learning-Andrew Ng 课程第一、二周——梯度下降法(单变量、多变量)
目录1. Simultaneous Update2. 梯度下降法中的减号3. 批(Batch)梯度下降和随机(Stochastic)梯度下降4. Normalized Features5. $\theta^T\mathbf{x}$和$X\theta$之间的区别写这个博客是因为最近我在Coursera上学习吴恩达的机器学习课程,为了巩固所学,记录在学习中遇到的一些问题。之后每一周都会在这里进行分...原创 2018-09-18 16:01:20 · 447 阅读 · 0 评论 -
Machine Learning-Andrew Ng 课程第四周——非线性假设 & Neural Network
目录1. 图像作为输入时的训练2. 关于神经网络中Hidden Layer在编程时的注意事项3. Matlab中max()函数的用法1. 图像作为输入时的训练之前我们处理的输入都是一些标量,比如房子的面积、卧室数量、肿瘤的体积等等,但在实际工程应用中,很多输入比这复杂许多,比如说图像。在此次编程作业中用到了手写数据集,每个图像都是20×2020\times2020×20,共有5000张图片,...原创 2018-09-26 21:23:30 · 325 阅读 · 0 评论 -
Machine Learning-Andrew Ng 课程第三周——Logistic Regression
目录1.关于Logistic Regression的一些基本问题(1) Logistic Regression的名字(2) 假设$h_\theta(\mathbf{x})$的内在含义(3) Logistic Regression的梯度下降推导2.关于正则化的一些基本问题(1) 正则化的初衷(2) 关于添加特征和运用正则化后的模型预测效果1.关于Logistic Regression的一些基本问题...原创 2018-09-21 21:06:39 · 265 阅读 · 0 评论 -
Machine Learning-Andrew Ng 课程第五周——Back Propagation
这周的编程作业真的麻烦…因为涉及的矩阵比较多,每个矩阵的尺寸又不尽相同,光是把每个公式的运算问题改过来都用了不少时间,而且反向传播的过程又不是很直观,整个过程就用了很长时间。刚刚把作业提交上去,因为中间改的东西忘了不少,现在就把能记得的一些要点提出来,之后想到了再补充。1. 关于δ(l)\delta^{(l)}δ(l)的一些问题在反向传播中很重要的一点就是δ(l)\delta^{(l)}δ(l...原创 2018-10-04 23:00:23 · 356 阅读 · 0 评论 -
Machine Learning-Andrew Ng 课程第六周——Advice for Applying Machine Learning
这一周的课程没涉及什么特别“硬”的知识,都是在说如何使学习算法表现得更好,但是这些知识也很重要,有助于提高“软”实力,特别是在调试算法的时候,尤其有帮助。1. Learning Curve和Validation Curve所谓的Learning Curve就是指参数theta分别在training set和validation set上的error随训练集规模变化的曲线,其他的不多说,就说一点...原创 2018-10-09 21:58:40 · 517 阅读 · 0 评论 -
Machine Learning-Andrew Ng 课程第九周——Anomaly Detection & Collaborate Filtering
好久没写了…在因为第九周的课程逾期而疯狂补课之后,我又开始写周总结了,这一周的课程和作业并不难,只是collaborate filtering的概念我还是感觉很迷。废话不多说,这周作业里的注意的点有两个:1. Collaborate Filtering代价函数的梯度计算实际上和linear regression非常相似,只不过在Collaborate Filtering中,要同时学习x(1)....原创 2018-11-14 16:56:10 · 371 阅读 · 0 评论