- 博客(6)
- 资源 (2)
- 收藏
- 关注
转载 线性回归、lasso回归和岭回归(ridge regression)
线性回归很简单,用线性函数拟合数据,用均方差mean square error (mse) 计算损失(cost),然后用梯度下降法找到一组使 mse 最小的权重。lasso 回归和岭回归(ridge regression)其实就是在标准线性回归的基础上分别加入 L1 和 L2 正则化(regularization)。线性回归——最小二乘Lasso回归和岭回归Lasso回归和岭回归的同和异相同: 都可以用来解决标准线性回归的过拟合问题。 不同: lasso 可以用来做 f
2020-07-15 17:06:32 1821
转载 坐标轴下降 vs 梯度下降
坐标轴下降 vs 梯度下降梯度下降与坐标下降优化方法梯度下降法坐标下降法注意事项梯度下降与坐标下降优化方法梯度下降法在每次迭代更新时选择负梯度方向(最速下降的方向)进行一次更新.不断迭代直至到达我们的目标或者满意为止.坐标下降法当损失函数不可导,梯度下降不再有效,可以使用坐标轴下降法,坐标下降法属于一种非梯度优化的方法,它在每步迭代中沿一个坐标的方向进行搜索,通过循环使用不同的坐标方法来达到目标函数的局部极小值。求导时只对一个维度(坐标轴方向)进行求导,而固定其它维度,这样每次只优化一个分量.假设
2020-07-14 14:54:41 1117
原创 常用优化方法(optimizer):SGD、momentum、Adam、AdaGard等
optimizerSGD 和 BGD 和 Mini-BGDSGD 随机梯度下降BGD(batch gradient descent):批量梯度下降Mini - BGD(mini-batch gradient descent):批量梯度下降MomentumAdagrad:(adaptive gradient)自适应梯度算法RMSprop(root mean square propagation) 均方根传播Adam (adaptive moment estimation) 自适应矩估计机器学习几乎所有算法都
2020-07-14 14:22:46 3987 1
转载 集成模型Bagging和Boosting的区别
Bagging和Boosting的主要区别Bagging(套袋法)Boosting(提升法)Bagging,Boosting二者的区别总结基本概念为什么说bagging是减少variance,而boosting是减少bias?Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。Bootstraping,即自助法:它是一种有放回的抽样方法(可能抽到重复的样本)。Bagging
2020-07-04 18:07:30 1735 1
原创 leetcode算法学习(23)——最长有效括号
最长有效括号题目描述方法一:栈思路代码复杂度分析方法二:动态规划思路代码复杂度分析方法三:无需额外空间思路代码复杂度分析题目描述给定一个只包含 ‘(’ 和 ‘)’ 的字符串,找出最长的包含有效括号的子串的长度。示例 1:输入: “(()”输出: 2解释: 最长有效括号子串为 “()”示例 2:输入: “)()())”输出: 4解释: 最长有效括号子串为 “()()”示例 3:输入: “())((())”输出: 4解释: 最长有效括号子串为 “(())”方法一:栈思路始终保持
2020-07-04 11:45:07 3240
原创 leetcode算法学习(22)——有效的字母异位词
有效的字母异位词题目描述方法一:count()遍历中直接比较字符个数思路代码方法二:哈希表--记录每个字符的数量思路代码题目描述给定两个字符串 s 和 t ,编写一个函数来判断 t 是否是 s 的字母异位词。示例 1:输入: s = “anagram”,t = “nagaram”输出: true示例 2:输入: s = “rat”,t = “car”输出: false方法一:count()遍历中直接比较字符个数思路有效的字母异位词,两个字符串中的元素肯定是一致的首先判断
2020-07-02 20:56:32 113
Ensemble Learning.pdf
2020-05-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人