统计学习方法
文章平均质量分 71
古路
这个作者很懒,什么都没留下…
展开
-
泛函与变分法
变分法求解的是泛函极值问题,变分法将泛函求极值问题通过欧拉-拉格朗日方程(满足欧拉-拉格朗日方程是泛函具有极值的必要非充分条件)转换为微分方程的求解。原创 2022-11-16 18:05:44 · 641 阅读 · 0 评论 -
最小生成树 Minimum Spanning Tree
两种解法的思路1584-连接所有点的最小费用示例 1:1.Kruskal算法并查集的路径压缩:Kruskal算法思路:Kruskal 算法以边为单元,时间(m log(m))主要取决于边数,比较适合于稀疏图.2.Prim算法prim 算法其实就是 BFS 思想。注意优先队列的 cmp ,有点反直觉啊。......原创 2022-06-30 21:30:27 · 234 阅读 · 0 评论 -
熵-条件熵-联合熵-互信息-交叉熵
属于信息论基本概念。wiki如何理解信息熵,这个视频做得真的很棒!信息量:x=log2Nx = log_2Nx=log2N, NNN 为等可能事件数量。例如,信息量为3,则原始等可能事件数为 23=82^3=823=8.信号量是信息熵的一个特例:事件是等可能发生的。这篇文章中给出了定义:定义:熵, 用来度量信息的不确定程度。解释: 熵越大,信息量越大。不确定程度越低,熵越小,比如“明天太阳从东方升起”这句话的熵为0,因为这个句话没有带有任何信息,它描述的是一个确定无疑的事情。例子也很直观:例子:假设有随原创 2022-06-30 11:56:39 · 424 阅读 · 0 评论