机器学习
Nino与林夕
这个作者很懒,什么都没留下…
展开
-
【Machine Learning 作业】第八周ex7&第九周ex8
ex7 Unsupervised Learning findClosestCentroids.m 这里又用上了repmat大法。毕竟初识数据结构之后,总想让时间复杂度最低,因此在想各种方式去减少。问题是matlab一个大问题就是不开源,因此各个函数的底层是未知的。比如自己编一个代码在C上跑和matlab用函数跑,往往是matlab更慢。但matlab就胜于自己的矩阵运算以及高度集成化,简单还易上手。走偏了,走偏了。。。 for i=1:size(X,1) dis=repmat(X(i,:),K,1);原创 2020-07-30 17:14:13 · 200 阅读 · 0 评论 -
【Machine Learning 作业】第六周ex5&第七周ex6
其实前面四周学完了之后,后面的内容相对来说会轻松些,都是一些公式的实现和在前面内容上的修修补补。 ex5 这一个作业我已经做完了一个多月了,具体的内容都忘记了,但是也把我的代码贴上来吧。 linearRegCostFunction.m 这里就是代价函数的计算,难度不大。 h=X*theta; J=1/(2*m).*sum((h-y).^2)+lambda/(2*m)*sum(theta(2:end,:).^2); grad_0=1/m*sum((h-y).*X(:,1)); grad=1/m*X(:,2:e原创 2020-07-30 16:40:57 · 161 阅读 · 0 评论 -
【Machine Learning 作业】第四周ex3&第五周ex4
ex3 ex4 ex4还是很费时间的,整整花了我6+2个小时去做完。敲代码倒不是很难,关键是修改错误!!! 要考虑到bias unit不要带到正则化中!虽然问你你知道,但是代码中总是会忘记。 另外要注意点乘和叉乘!问你你知道,写代码就死翘翘! 此外,还有若干小错误,写代码的习惯不好,需要慢慢改善。 ...原创 2020-06-16 21:28:14 · 138 阅读 · 0 评论 -
【Machine Learning 作业】第二周ex1&第三周ex2
ex1 computeCost.m % ====================== YOUR CODE HERE ====================== % Instructions: Compute the cost of a particular choice of theta % You should set J to the cost. AA=sum((theta'*X'-y').^2) fprintf('%f',AA) J=AA/(2*m); % =======原创 2020-06-03 20:59:41 · 163 阅读 · 0 评论