机器学习
文章平均质量分 87
季康先生
其实我是个糕手
展开
-
klloss的解释
p_loss = F.kl_div(F.log_softmax(p, dim=-1), F.softmax(q, dim=-1), reduction=‘none’):计算从p到q的KL散度。q_loss = F.kl_div(F.log_softmax(q, dim=-1), F.softmax(p, dim=-1), reduction=‘none’):计算从q到p的KL散度。需要注意的是,KL散度是不对称的,也就是说,D_{KL}(P||Q)不等于D_{KL}(Q||P)。原创 2023-08-14 09:02:23 · 511 阅读 · 0 评论 -
李航统计学方法-第一章极大似然估计&梯度下降
李航统计学方法1.1-概论1.2-极大似然估计1.3-梯度下降1.4-作业及答案1.1-概论1.2-极大似然估计1.3-梯度下降1.4-作业及答案原创 2021-08-24 21:10:04 · 1187 阅读 · 0 评论 -
决策树算法
决策树算法算法简介熵的原理以及举例算法简介如上图所示,左侧贷款申请样本数据表,右侧是由根据表中的特征来进行划分信贷情况从而构建的一棵树,现有一个问题:为什么要选择年龄作为第一特征来划分呢,为何不能选择其他属性作为第一决策特征呢?熵的原理以及举例链接: link链接详细解释熵的原理上图所示,假设某个随机事件发生的概率为pIp_IpI ,H(P)=∑i=12pi∗logpiH(P)=\sum_{i=1}^2 p_i*log p_iH(P)=∑i=12pi∗logpi假设有两个对立事件,所原创 2023-09-15 15:53:43 · 685 阅读 · 0 评论