
机器学习C代码
文章平均质量分 86
sherri_du
这个作者很懒,什么都没留下…
展开
-
支持向量机通俗导论(理解SVM的三层境界)
支持向量机通俗导论(理解SVM的三层境界) 作者:July、pluskid ;致谢:白石、JerryLead 出处:结构之法算法之道blog。 前言 动笔写这个支持向量机(support vector machine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力,二者这个东西也不好讲清转载 2016-03-03 10:06:08 · 660 阅读 · 0 评论 -
2、Logistic Regression求解classification问题 c代码
#include "stdio.h" #include "math.h" double x[6][4]={{1.0,47.0,76.0,24.0}, //include x0=1 {1.0,46.0,77.0,23.0}, {1.0,48.0,74.0,22.0}, {1.0,34.0,76原创 2016-02-27 10:56:59 · 698 阅读 · 0 评论 -
1、梯度下降c代码
batch gradient descent(批量梯度下降) #include int main() { //如何求y=2x^2极小值 int i; double x=-2.0,a=0.05; for(i=1;i x=x-a*4*x; printf("%lf\t",x); } //如何求解x=[x1,x2]使y=5x1^2+6x2^2+7原创 2016-02-27 10:46:38 · 1268 阅读 · 0 评论 -
Softmax Regression
在前面的logistic regression博文Deep learning:四(logistic regression练习) 中,我们知道logistic regression很适合做一些非线性方面的分类问题,不过它只适合处理二分类的问题,且在给出分类结果时还会给出结果的概率。那么如果需要用类似的方法(这里类似的方法指的是输出分类结果并且给出概率值)来处理多分类问题的话该怎么扩展呢?本次要讲转载 2016-02-27 11:57:40 · 426 阅读 · 0 评论 -
3、softmax回归 C代码
二分类logistics回归的时候,我们用了一个theta,其中theta是n维,n取决于样本x有几维 以此类推,当三分类softmax的时候,我们就用两个theta,一个是划分为1的theta,一个是划分为2的theta,一个是1减去他俩 所以说,theta1就代表了分类里,结果为第一类的作用的那个theta。theta2代表第二类作用为2的那个theta 因此,我原创 2016-02-28 09:42:38 · 1865 阅读 · 0 评论