机器学习
@江上雨
这个作者很懒,什么都没留下…
展开
-
文本离散表示(一):词袋模型(bag of words)
词袋模型转载 2020-06-19 09:00:12 · 368 阅读 · 0 评论 -
【机器学习】范数
范数(norm) 几种范数的简单介绍转载 2020-02-15 16:57:05 · 103 阅读 · 0 评论 -
【机器学习】神经网络中filter是如何工作的
链接原创 2019-12-21 16:49:50 · 649 阅读 · 0 评论 -
【机器学习吴恩达】随机初始化Θ
原创 2019-11-09 11:03:55 · 200 阅读 · 0 评论 -
【机器学习吴恩达】数值梯度检验
原创 2019-11-09 10:46:22 · 171 阅读 · 0 评论 -
【机器学习吴恩达】简单神经网络
前向传播原创 2019-11-01 20:56:25 · 112 阅读 · 0 评论 -
【机器学习吴恩达】神经网络数学表示
原创 2019-11-01 16:54:37 · 302 阅读 · 0 评论 -
【机器学习吴恩达】过拟合问题(正则化)
1.减少变量2.正则化原创 2019-10-25 17:26:19 · 246 阅读 · 0 评论 -
【机器学习吴恩达】多分类问题
1.一对多方法PS:然后在预测时取最大值原创 2019-10-25 16:56:35 · 131 阅读 · 0 评论 -
【机器学习吴恩达】高级优化的算法
1.Gradient descent(梯度下降)2.Conjugate gradient(共轭梯度)3.BFGSOctave使用:4.L-BFGSPS:1.后三种算法均可以自动调整学习率,所以相较于第一种算法更快。2.自动调整学习率中用到了线性搜索算法不断寻找好的学习率,收敛的更快。...原创 2019-10-23 22:20:23 · 350 阅读 · 0 评论 -
【机器学习吴恩达】逻辑回归
1.假设函数2.损失函数以及更新规则PS:偏导的常熟结果与学习率相乘可以合为一起原创 2019-10-23 16:58:19 · 87 阅读 · 0 评论 -
【机器学习吴恩达】假设函数与决策边界
在分类问题中,逻辑回归的一部分就是假设函数,通过假设函数把线性回归或者其它的函数值映射到0~1的范围,而决策边界是确定哪一部分为为正,那一部分为负...原创 2019-10-21 11:53:29 · 233 阅读 · 0 评论 -
【机器学习吴恩达】标准方程法
求直接求损失函数的θ值PS:当特征数大于10000时,这种方式过于慢,建议采用梯度下降原创 2019-10-19 10:49:52 · 93 阅读 · 0 评论 -
【机器学习吴恩达】多项式回归以及选择特征的方法
1.多项式回归(1)运用线性回归时,我们不一定要直接使用特征值,也可以通过组合变化来构造新的特征值PS:下图中并没有直接使用房子的长和宽,而是通过乘积来构造新的特征...原创 2019-10-19 10:05:01 · 281 阅读 · 0 评论 -
【机器学习吴恩达】学习率的选择
原创 2019-10-18 17:34:05 · 389 阅读 · 0 评论 -
【机器学习吴恩达】几种归一化方式
PS:这样尽可能的减少了震荡的次数原创 2019-10-18 16:21:23 · 549 阅读 · 0 评论 -
【机器学习吴恩达】各种标识的含义
原创 2019-10-18 11:49:13 · 416 阅读 · 0 评论