- 博客(20)
- 资源 (1)
- 收藏
- 关注
转载 很赞的讲神经网络BP的文章
有多赞呢,我觉得看完后几乎不需要看书了~https://www.zybuluo.com/hanbingtao/note/433855
2019-06-28 21:16:19 693
翻译 神经网络之传递函数(sigmoid ,双S)
1.S函数(sigmoid)f(x)=11+e−xf(x)=\frac{1}{1+e^{-x}}f(x)=1+e−x12.双S函数f(x)=1−e−x1+e−xf(x)=\frac{1-e^{-x}}{1+e^{-x}}f(x)=1+e−x1−e−x
2019-06-27 16:26:01 6040
转载 交叉熵损失函数(softmax分类器)
对于训练集中第iii张图片数据xix_ixi,在WWW下会有一个得分结果向量fyif_{y_i}fyi,则损失函数几座Li=−log(efyi∑jefj)L_i=-log(\frac{e^{f_{y_i}}}{\sum_j e^{f_j}})Li=−log(∑jefjefyi)或者Li=−fyi+log∑jefiL_i=-f_{y_i}+log\sum_{j}{e^{f_i}...
2019-06-27 13:50:32 3736
转载 hinge loss(损失函数)详解
hinge loss:支持向量机损失函数1.对于训练集中的第iii张图片数据xix_ixi,在WWW下会有一个得分结果向量f(xi,W)f(x_i,W)f(xi,W);2.第jjj类的得分我们记作f(xi,W)jf(x_i,W)_jf(xi,W)j;3.则在该样本上的损失,我们由下列的公式可以计算得到(1)Li=∑j≠yimax(0,f(xi,W)j−f(xi,W)yi+△)L_i=...
2019-06-27 12:33:35 14245
转载 控制树模型过拟合的方式
1.增加样本量2.控制模型复杂度,比如限制最大树深,限制最小叶子结点样本量,结点进行分裂的样本最小值3.学习率4.阈值限定,比如信息增益小于某个值,停止增长5.交叉验证,如果验证集熵目标函数下降变缓慢或开始上升,则停止6.剪纸PS:来自七月在线作业题...
2019-06-25 12:47:54 535
原创 6月24 七月在线直播课笔记(流水账式,非技术,没归类)
仅对老师课堂上说的注意点之类的做了记录:1.一定要看case,以便了解模型预估咋哪里出现了什么问题导致AUC降低2.所有的问题尽可能转化为分类问题,少去做回归例如:大于0.5,标为1,反之,标为0.连续数值的label转为离散类别来做。3.无监督学习K-means:文本聚类plsalda4.PCA:降维,选择前面n个feature。算法工程师:工业界有数据作弊的情况(刷单,设...
2019-06-24 22:53:08 219
原创 分裂前后增益计算方法
ID3->信息增益C4.5->信息增益比CART->采用Gini系数XG Boost->L~∗=−12∑j=1TGj2Hj+λ+γT\tilde{L}^*=-\frac{1}{2}\sum_{j=1}^{T}\frac{G_{j}^2}{H_j+\lambda}+\gamma TL~∗=−21∑j=1THj+λGj2+γT...
2019-06-23 17:18:31 1361
原创 梯度提升树(Gradient Boosting Tree)算法原理
一 计算过程:输入: *(xi,yi),T,L(x_i,y_i),T,L(xi,yi),T,L1.初始化f0f_0f02.for t=1 to T do2.1. 计算响应:yi^=−[∂L(yi,F(xi))∂F(xi)]F(x)=Ft−1(x)\hat{y_i}=-[\frac{\partial L(y_i,F(x_i))} {\partial F(x_i)}]_{F(x)=F_{...
2019-06-22 12:29:55 3868
原创 最大似然函数,琴生不等式
1.最大似然函数定义Y={y1,y2,…yn}p(y1,y2,…yn)=p(y1)p(y2)…p(yn)即y1,y2,…yn为独立同分布似然函数:likelihood=∏j=1Np(yi)\prod_{j=1}^{N}p(y_i)∏j=1Np(yi)Lδ=∏j=1Npδ(yi)L_\delta=\prod_{j=1}^{N}p_\delta(y_i)Lδ=∏j=1Npδ(yi...
2019-06-19 10:35:16 652
转载 如何通俗理解EM算法
https://blog.csdn.net/v_JULY_v/article/details/81708386?tdsourcetag=s_pcqq_aiomsg
2019-06-16 18:13:52 176
原创 特征空间和属性空间
语境:机器学习中属性空间:所有属性的张成空间特征空间:所选择的排除线性相关和对模型构建没有益处后的属性构成的属性空间就叫特征空间。属性空间>=特征空间...
2019-06-13 16:20:14 4212
转载 markdown中数学公式整理
见这篇文章,写得蛮详细的https://blog.csdn.net/zdk930519/article/details/54137476
2019-06-12 18:20:04 696
原创 信息量,熵,联合熵,互信息,条件熵,相对熵(KL散度),交叉熵(cross entropy)
1.信息量含义:对信息的度量。概率越小,信息量越大。公式:h(xi)=−log2p(xi)h(x_i)=-log_2p(x_i)h(xi)=−log2p(xi)或者h(xi)=log21p(xi)h(x_i)=log_2\frac{1}{p(x_i)}h(xi)=log2p(xi)1p(xi)p(x_i)p(xi)为事件xix_ixi发生的概率大小,一般所用底数为2。根...
2019-06-12 18:07:17 2137 1
转载 pyspark.sql(dataFrame)相关函数的查询网址
http://spark.apache.org/docs/latest/api/python/pyspark.sql.html
2019-06-03 22:37:39 216
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人