机器学习
漂流瓶zps
把递归改成非递归
展开
-
全连接的编码器和解码器 tensorflow1.x & keras
自编码器原理CODE原理自编码器是一种将它们的输入复制到输出的神经网络,通过将输入压缩成一种隐藏空间表示,然后再重构这种表示的输出。这种网络由编码器和解码器两种部分组成。xhr编码器:h=f(x)h = f(x)h=f(x)解码器: r=g(x)r=g(x)r=g(x)自编码器的整体是可以用函数g(f(x))=rg(f(x)) = rg(f(x))=r来描述,我们的目的是想得到rrr与...原创 2020-04-02 11:41:58 · 1231 阅读 · 0 评论 -
线性模型(线性回归,logistic回归)公式推导+numpy实现
目录线性模型线性回归Code分析Ridge 回归logistics回归用 NumPy 手写所有主流 ML 模型,普林斯顿博士后 David Bourgin 开源了一个非常剽悍的项目矩阵求导公式线性模型线性回归Codeclass LinearRegression: def __init__(self, fit_intercept=True): ''' ...原创 2020-01-05 01:41:36 · 984 阅读 · 0 评论 -
机器学习的目标函数
目标函数-持续更新目标函数/损失函数平方损失函数交叉熵损失函数欢迎一起来参与leetcode刷题项目目标函数/损失函数持续更新在机器学习中,我们的目标就是在验证集上有更好的效果,当然了也不能过拟合平方损失函数min∑i=1m(f(xi)−yi)2min\sum_{i=1}^m (f(x_i) - y_i)^2 mini=1∑m(f(xi)−yi)2交叉熵损失函数min−[yi∗l...原创 2019-08-31 13:42:50 · 827 阅读 · 0 评论 -
优化算法
机器学习的优化算法优化算法随机梯度下降动量法Adagrad优化算法在看线性模型的时候,我们寻找的是误差函数梯度为0 的点,更直接点的说法二次函数一阶导数为0的点。不过这只是我们在线性模型里看到的,实际上一阶导数为0 的点,可能是平面、鞍点、局部最小点、全局最小点。局部和全局都差不多了。鞍点和平面肯定是不能要的。以后再配图吧,先记笔记随机梯度下降损失函数L(θ)L(\theta)L(θ) ...原创 2019-09-10 01:09:33 · 321 阅读 · 0 评论