机器学习
布鲁克泰勒
无论何时都能通过看海贼AB站而元气满满的某汪一只 ( •̀ .̫ •́ )✧
展开
-
Scikit-Learn各算法详细参数速查手册(中文)
转一个学长整理的速查手册Scikit-Learn各算法详细参数速查手册(中文)Scikit-Learn各算法详细参数速查手册(中文)martin(翔宇)Scikit-Learn各算法详细参数速查手册中文线性模型1 线性回归2 线性回归的正则化21 Lasso回归L1正则22 岭回归L2正则23 ElasticNet弹性网络正则3 逻辑回归4 线性判别分析决策树1 回归决策树2转载 2017-10-10 17:02:32 · 900 阅读 · 0 评论 -
tensorflow一些函数
tf.where(condition, x=None, y=None, name=None)x, y 相同维度,condition是bool型值,True/False返回值:condition为True对应位置的x值,为False对应位置的y值原创 2019-07-31 12:46:44 · 99 阅读 · 0 评论 -
指数平滑
1.一次指数平滑(指数加权平均)一次指数加权平均通式为:st=α∗xt+(1−a)∗st−1=αxt+α(1−α)xt−1+(1−α)2st−2=α[xt+(1−α)xt−1+(1−α)2xt−2+…]+(1−α)ts0=α∑i=0t(1−α)ixt−i \begin{aligned} s_t & = \alpha * x_{t} +(1-a)* s_{t-1} \\ &...原创 2019-03-09 21:40:48 · 621 阅读 · 0 评论 -
常见函数的导数
Softmax函数及Softmax交叉熵损失函数的导数对于一组输入[1, 2, …,i ,…] 使用softmax公式可将其转化为概率分布的形式。Softmax公式:yi=ei∑jejy_i=\frac{e^i}{\sum_j{e^j}}yi=∑jejei其中i为一组输入中的第i个输入。则对应的softmax输出是yiy_iyi。对于分类问题来说,经常使用softmax交叉熵损失函...原创 2019-03-09 15:10:10 · 1775 阅读 · 0 评论 -
xgboost公式详细推导和解释
目标函数L(t)=∑i=1nl(yi,yi∗t))+Ω(ft)=∑i=1nl(yi,yi∗(t−1)+ft(xi))+Ω(ft)\begin{aligned}L^{(t)} & = \sum_{i=1}^n l(y_i, y_i^{*t)} ) + \Omega(f_t) \\ & = \sum_{i=1}^n l(y_原创 2020-04-30 14:08:52 · 732 阅读 · 0 评论 -
sklearn一些常用方法
%matplotlib inlineimport pandas as pdimport numpy as npimport mathimport reimport timeimport matplotlib.pyplot as plt # Matlab-style plottingimport seaborn as snstrain = pd.read_csv('../data...原创 2018-05-04 22:06:21 · 328 阅读 · 0 评论 -
记录一些机器学习中零碎的知识
1、随机森林中随机选择子特征的个数的经验值一般是原特征个数的平方根(分类问题)或原特征个数的三分之一(回归问题).原创 2018-03-14 09:50:08 · 168 阅读 · 1 评论 -
平时查看觉得有用的文章链接
1. CRF知乎通俗解释crf:如何用简单易懂的例子解释条件随机场(CRF)模型?它和HMM有什么区别? - milter的回答 - 知乎https://www.zhihu.com/question/35866596/answer/139485548知乎例子英文原文:https://blog.echen.me/2012/01/03/introduction-to-conditional-r...原创 2019-08-06 20:23:32 · 109 阅读 · 0 评论