![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
安于此生_
这个作者很懒,什么都没留下…
展开
-
FTRL学习
总结学习资源:基于FTRL的在线CTR预测算法在线学习算法FTRL详解转载 2018-06-12 15:40:12 · 176 阅读 · 0 评论 -
FM和FFM学习
FM后半部分公式化简,时间复杂度从O(kn2)降到O(kn)O(kn2)降到O(kn)O(kn^2)降到O(kn)∑i=1n−1∑j=i+1n(VTiVj)xixj∑i=1n−1∑j=i+1n(ViTVj)xixj\begin{aligned}\sum_{i=1}^{n-1}\sum_{j=i+1}^n(V_i^TV_j)x_ix_j \end{aligned} =12(∑i=1...转载 2018-06-12 14:49:59 · 198 阅读 · 0 评论 -
xgboost参数
# learning_rate# n_estimators# min_child_weight# gamma # scale_pos_weight 样本不平衡时用# subsample初始学习率,base_model个数 max_depth和min_weight gamma值 subsample和colsample_bytree 正则化参数调优 降低学习率,训练更多的树...转载 2018-07-20 15:40:55 · 235 阅读 · 0 评论 -
RF参数
class sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf...转载 2018-07-17 19:12:59 · 2191 阅读 · 0 评论 -
lgb学习
lgb转载 2018-07-23 19:54:28 · 849 阅读 · 0 评论 -
keras实现attention(还不太懂)
from keras import backend as Kfrom keras.engine.topology import Layerfrom keras import initializers, regularizers, constraintsclass Attention_layer(Layer): """ Attention operation, wit...转载 2018-09-21 20:28:03 · 10163 阅读 · 1 评论 -
RNN、LSTM基础
RNNDNN的无法对时间序列上的变化进行建模,所以出现了RNN,神经元的输出可以在下一个时间戳直接作用到自身。但是RNN出现梯度消失,长短时记忆单元LSTM,通过门的开关实现时间上记忆功能,并防止梯度消失。RNN既然能继承历史信息,是不是也能吸收点未来的信息呢?双向RNN、双向LSTM,同时利用历史和未来的信息。LSTMGRUGRU对LSTM做了两个大改动1.将输入门、遗忘门、输...转载 2018-09-21 11:23:20 · 386 阅读 · 0 评论 -
双向 LSTM
原文链接 https://blog.csdn.net/jojozhangju/article/details/51982254 本文结构:为什么用双向 LSTM 什么是双向 LSTM 例子为什么用双向 LSTM?单向的 RNN,是根据前面的信息推出后面的,但有时候只看前面的词是不够的, 例如,我今天不舒服,我打算__一天。只根据‘不舒服‘,可能推出我打算‘去医院‘...转载 2018-09-21 11:11:18 · 3284 阅读 · 0 评论 -
HMM算法
前向算法转载 2018-09-03 10:53:42 · 519 阅读 · 0 评论 -
EM算法
这个讲的很清楚转载 2018-09-03 10:51:57 · 157 阅读 · 0 评论