Machine Learning
如果一切再重来
两耳不闻窗外事
展开
-
NumPy的详细教程(官网手册翻译)
先决条件在阅读这个教程之前,你多少需要知道点Python。如果你想从新回忆下,请看看Python Tutorial.如果你想要运行教程中的示例,你至少需要在你的电脑上安装了以下一些软件:PythonNumPy这些是可能对你有帮助的:ipython是一个净强化的交互Python Shell,对探索NumPy的特性非常方便。matplotlib将允许你绘图S转载 2016-11-08 17:04:49 · 57203 阅读 · 5 评论 -
Feature extraction - sklearn文本特征提取
原文:http://blog.csdn.net/pipisorry/article/details/41957763http://blog.csdn.net/pipisorry/article/details/41957763文本特征提取词袋(Bag of Words)表征文本分析是机器学习算法的主要应用领域。但是,文本分析的原始数据无法直接丢给算法,这转载 2016-12-06 17:50:01 · 5099 阅读 · 0 评论 -
反向传播神经网络极简入门
找了很多资料,感觉就这篇写的最详细易懂了。原文地址:http://www.hankcs.com/ml/back-propagation-neural-network.html?utm_source=tuicool&utm_medium=referral我一直在找一份简明的神经网络入门,然而在中文圈里并没有找到。直到我看到了这份162行的Python实现,以及对应的油管视频之后,我才转载 2016-11-14 18:18:14 · 5366 阅读 · 1 评论 -
关于神经网络中的代价函数——交叉熵的由来
这段时间一直在看有关于神经网络的教程,在之前看过的其他一些机器学习算法,例如logistics回归等都是用C =(y− a)2/2函数做cost function,但是在神经网络算法中,有些教程是使用交叉熵作为代价函数的(关于斯坦福大学的深度学习教程依旧使用的是C =(y− a)2/2函数做cost function),这个让我很郁闷,于是我就问了师兄,然后没有然后。。。没有搞懂。我就在网转载 2016-12-27 17:37:38 · 1462 阅读 · 1 评论 -
python画图之散点图sactter函数详解,基本散列点绘制
原文地址:http://blog.csdn.net/u013634684/article/details/49646311最近开始学习Python编程,遇到scatter函数,感觉里面的参数不知道什么意思于是查资料,最后总结如下:1、scatter函数原型2、其中散点的形状参数marker如下:3、其中颜色参数c如下:4、基本的使用方法如下:[p转载 2017-02-13 10:47:16 · 9553 阅读 · 0 评论 -
梯度下降(Gradient Descent)小结
作者:刘建平Pinard原文链接:梯度下降(Gradient Descent)小结在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1. 梯度在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函转载 2017-02-14 13:12:36 · 1026 阅读 · 0 评论 -
Logistic回归和梯度下降总结
原文:http://blog.csdn.net/dongtingzhizi/article/details/15962797 Logistic回归总结PDF下载地址:http://download.csdn.net/detail/lewsn2008/65474631.引言 看了Stanford的Andrew Ng老师的机器学习公开课中关于Logistic转载 2017-02-14 13:41:01 · 14390 阅读 · 15 评论 -
机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)
原文:http://blog.csdn.net/zouxy09/article/details/20319673机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)zouxy09@qq.comhttp://blog.csdn.net/zouxy09 机器学习算法与Python实践这个系列主要是参考《机器学习实战》转载 2017-02-14 13:44:48 · 839 阅读 · 0 评论