![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
machine learning
文章平均质量分 92
Geek-Yan
Get busy living, Or get busy dying.
忙活,或者等死。
展开
-
Standford 机器学习—第四讲 神经网络的表示
神经网络的表示神经网络的表示一 神经网络的引入Nonlinear hypothesis二 神经元与大脑Neurons and Brain三 神经网络的表示形式四 怎样用神经网络实现逻辑表达式五 分类问题 Classification 一、 神经网络的引入—Nonlinear hypothesis我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即: 当特征太多时,计算的负荷会非常原创 2017-03-26 13:25:20 · 513 阅读 · 0 评论 -
Standford 机器学习—第三讲 Logistic Regression 逻辑回归
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning中An原创 2017-03-19 09:40:28 · 333 阅读 · 0 评论 -
Standford 机器学习—第二讲 Linear Regression with multiple variables(多变量线性回归)
Linear Regression with multiple variables – 多变量线性回归1. 假设函数hθ(x)=θ0+θ1x1+θ2x2+θ3x3 h\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_3 模型表示: 参数 含义 n 特征的个数 m 训练集的个数原创 2017-03-18 08:58:12 · 775 阅读 · 0 评论 -
Standford 机器学习—第一讲 Linear Regression with one variable(单变量线性回归)
Linear Regression with one variable(单变量线性回归)Linear Regression with one variable单变量线性回归什么是线性回归代价函数 cost function公式作用Gradient Descent 梯度下降算法Batch gradient descent 批量梯度下降公式学习率alpha的大小对代价函数求导本栏目(M原创 2017-03-11 16:29:07 · 383 阅读 · 0 评论