自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (1)
  • 收藏
  • 关注

原创 Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 线性回归中的梯度下降法

本节将梯度下降与代价函数结合,并拟合到线性回归的函数中 这是我们上两节课得到的函数,包括: 梯度下降的公式 用于拟合的线性假设和h(x) 平方误差代价函数 J(θ0 , θ1) 步骤 我们把J(θ0 , θ1)带入到左边的梯度下降公式中,展开成下面形式 我们假设梯度下降算法起始地两个初值J = 0 , 1 。分别对θ0 和θ1求偏导

2015-12-15 17:12:17 1317

原创 Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 梯度下降法

随机梯度下降是很常用的算法,他不仅被用在线性回归上,实际上被应用于机器学习领域中的众多领域。 本节我们可以用这种算法来将代价函数最小化 我们想要使用梯度下降算法得到 θ0和θ1来使代价函数J(θ0 , θ1)最小化,当然也适用于其他跟一般的函数比如J(θ0,….θn)。 下面是关于梯度下降的构想: 预估两个初始值θ0和θ1作为起点 不断改变θ0和θ1使代价函数 J(

2015-12-15 15:26:10 1085

原创 Stanford机器学习课程(Andrew Ng) Week 1 Model and Cost Function --- 第二节 Cost Function

课程地址: https://www.coursera.org/learn/machine-learning/lecture/rkTp3/cost-functionCost Function 在学习线性回归之前,我们有必要补充代价函数的知识,来帮助我们弄清楚如何把最有可能的直线和我们的数据相拟合。还是上节课的数据集,而假设函数也是这样的一个最基本的线性函数形式 我们把θi称为模型参数

2015-12-14 16:15:33 1679

原创 Stanford机器学习课程(Andrew Ng) Week 1 Model and Cost Function --- 第一节 Model representation

Model representation 课程地址: https://www.coursera.org/learn/machine-learning/lecture/db3jS/model-representation?sort=lastActivityAtDesc&page=1这节课将通过讲述一个完整的线性回归的例子来了解监督学习的完整流程。首先根据不同房屋尺寸所出售的价格画出数据集,

2015-12-14 11:41:12 1562

原创 斯坦福大学自然语言处理第七课“情感分析(Sentiment Analysis)”

课程地址:https://class.coursera.org/nlp/lecture/311. What is Sentiment Analysis?情感分析(Sentiment analysis)又可以叫做 意见抽取(Opinion extraction) 意见挖掘(Opinion mining) 情感挖掘(Sentiment mining) 主观分析(Subjectivity anal

2015-12-02 21:25:20 15470 2

数学之美pdf

数学之美的pdf,nlp入门书籍,主要讲述nlp的理念

2015-11-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除