![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
spark
taotao5309
这个作者很懒,什么都没留下…
展开
-
将Spark部署到Hadoop YARN上
用的是Hadoop2.2.0Spark0.9.1原创 2014-04-17 17:34:19 · 666 阅读 · 2 评论 -
SGD-SVM Spark并行
使用Hinge-Loss损失函数,对hinge loss,又可以细分出hinge loss(或简称L1 loss)和squared hinge loss(或简称L2 loss)。国立台湾大学的Chih-Jen Lin老师发布的Liblinear就实现了这2种hinge loss。L1 loss和L2 loss与下面的regularization是不同的,注意区分开。原创 2014-06-13 15:26:43 · 1914 阅读 · 0 评论