自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

莲君

仅做个人学习之用

  • 博客(20)
  • 资源 (1)
  • 收藏
  • 关注

转载 很赞的讲神经网络BP的文章

有多赞呢,我觉得看完后几乎不需要看书了~https://www.zybuluo.com/hanbingtao/note/433855

2019-06-28 21:16:19 693

翻译 神经网络之传递函数(sigmoid ,双S)

1.S函数(sigmoid)f(x)=11+e−xf(x)=\frac{1}{1+e^{-x}}f(x)=1+e−x1​2.双S函数f(x)=1−e−x1+e−xf(x)=\frac{1-e^{-x}}{1+e^{-x}}f(x)=1+e−x1−e−x​

2019-06-27 16:26:01 6040

转载 交叉熵损失函数(softmax分类器)

对于训练集中第iii张图片数据xix_ixi​,在WWW下会有一个得分结果向量fyif_{y_i}fyi​​,则损失函数几座Li=−log(efyi∑jefj)L_i=-log(\frac{e^{f_{y_i}}}{\sum_j e^{f_j}})Li​=−log(∑j​efj​efyi​​​)或者Li=−fyi+log∑jefiL_i=-f_{y_i}+log\sum_{j}{e^{f_i}...

2019-06-27 13:50:32 3736

转载 hinge loss(损失函数)详解

hinge loss:支持向量机损失函数1.对于训练集中的第iii张图片数据xix_ixi​,在WWW下会有一个得分结果向量f(xi,W)f(x_i,W)f(xi​,W);2.第jjj类的得分我们记作f(xi,W)jf(x_i,W)_jf(xi​,W)j​;3.则在该样本上的损失,我们由下列的公式可以计算得到(1)Li=∑j≠yimax(0,f(xi,W)j−f(xi,W)yi+△)L_i=...

2019-06-27 12:33:35 14245

原创 Markdown(Latex)中的数学公式

本图由七月在线的学习资料转化而来b

2019-06-27 11:45:13 645

转载 控制树模型过拟合的方式

1.增加样本量2.控制模型复杂度,比如限制最大树深,限制最小叶子结点样本量,结点进行分裂的样本最小值3.学习率4.阈值限定,比如信息增益小于某个值,停止增长5.交叉验证,如果验证集熵目标函数下降变缓慢或开始上升,则停止6.剪纸PS:来自七月在线作业题...

2019-06-25 12:47:54 535

原创 6月24 七月在线直播课笔记(流水账式,非技术,没归类)

仅对老师课堂上说的注意点之类的做了记录:1.一定要看case,以便了解模型预估咋哪里出现了什么问题导致AUC降低2.所有的问题尽可能转化为分类问题,少去做回归例如:大于0.5,标为1,反之,标为0.连续数值的label转为离散类别来做。3.无监督学习K-means:文本聚类plsalda4.PCA:降维,选择前面n个feature。算法工程师:工业界有数据作弊的情况(刷单,设...

2019-06-24 22:53:08 219

原创 分裂前后增益计算方法

ID3->信息增益C4.5->信息增益比CART->采用Gini系数XG Boost->L~∗=−12∑j=1TGj2Hj+λ+γT\tilde{L}^*=-\frac{1}{2}\sum_{j=1}^{T}\frac{G_{j}^2}{H_j+\lambda}+\gamma TL~∗=−21​∑j=1T​Hj​+λGj2​​+γT...

2019-06-23 17:18:31 1361

转载 机器学习原理概图

本图来自7月在线,仅方便个人学习上传的

2019-06-23 17:09:42 914

原创 梯度提升树(Gradient Boosting Tree)算法原理

一 计算过程:输入: *(xi,yi),T,L(x_i,y_i),T,L(xi​,yi​),T,L1.初始化f0f_0f0​2.for t=1 to T do2.1. 计算响应:yi^=−[∂L(yi,F(xi))∂F(xi)]F(x)=Ft−1(x)\hat{y_i}=-[\frac{\partial L(y_i,F(x_i))} {\partial F(x_i)}]_{F(x)=F_{...

2019-06-22 12:29:55 3868

原创 最大似然函数,琴生不等式

1.最大似然函数定义Y={y1,y2,…yn}p(y1,y2,…yn)=p(y1)p(y2)…p(yn)即y1,y2,…yn为独立同分布似然函数:likelihood=∏j=1Np(yi)\prod_{j=1}^{N}p(y_i)∏j=1N​p(yi​)Lδ=∏j=1Npδ(yi)L_\delta=\prod_{j=1}^{N}p_\delta(y_i)Lδ​=∏j=1N​pδ​(yi...

2019-06-19 10:35:16 652

转载 隐马尔可夫模型

https://blog.csdn.net/zhuqiang9607/article/details/83934961

2019-06-18 11:12:03 150

转载 如何通俗理解EM算法

https://blog.csdn.net/v_JULY_v/article/details/81708386?tdsourcetag=s_pcqq_aiomsg

2019-06-16 18:13:52 176

转载 学习曲线

https://blog.csdn.net/qq_36523839/article/details/82556932

2019-06-16 12:14:29 1092

原创 特征空间和属性空间

语境:机器学习中属性空间:所有属性的张成空间特征空间:所选择的排除线性相关和对模型构建没有益处后的属性构成的属性空间就叫特征空间。属性空间>=特征空间...

2019-06-13 16:20:14 4212

转载 markdown中数学公式整理

见这篇文章,写得蛮详细的https://blog.csdn.net/zdk930519/article/details/54137476

2019-06-12 18:20:04 696

原创 信息量,熵,联合熵,互信息,条件熵,相对熵(KL散度),交叉熵(cross entropy)

1.信息量含义:对信息的度量。概率越小,信息量越大。公式:h(xi)=−log2p(xi)h(x_i)=-log_2p(x_i)h(xi​)=−log2​p(xi​)或者h(xi)=log21p(xi)h(x_i)=log_2\frac{1}{p(x_i)}h(xi​)=log2​p(xi​)1​p(xi)p(x_i)p(xi​)为事件xix_ixi​发生的概率大小,一般所用底数为2。根...

2019-06-12 18:07:17 2137 1

转载 Bagging

来自七月在线课程截图,仅方便个人复习时查找

2019-06-11 15:17:39 171

转载 回归树RSS(递归二分)

来自七月在线课程截图,仅方便个人学习查找

2019-06-11 14:57:49 690

转载 pyspark.sql(dataFrame)相关函数的查询网址

http://spark.apache.org/docs/latest/api/python/pyspark.sql.html

2019-06-03 22:37:39 216

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除