- 博客(4)
- 收藏
- 关注
原创 HMM隐马尔可夫模型解决的问题及推导过程
前言首先HMM解决的问题是基于序列的。其中:状态序列 I=i1,i2,...,iTI=i_1,i_2,...,i_TI=i1,i2,...,iT ,满足 iT∈Qi_T \in QiT∈Q ,QQQ 是状态序列的可能取值集合 Q={q1,q2,...,qN}Q=\{q_1,q_2,...,q_N\}Q={q1,q2,...,qN} ;观测序列 O=o1,o2,...,oTO=o_1,o_2,...,o_TO=o1,o2,...,oT ,满足 oT∈Vo_T \in VoT∈
2021-03-23 11:25:36 489
转载 卷积神经网络的压缩和加速
文章目录前言一、网络裁枝二、低秩估计三、模型量化四、模型蒸馏五、总结六、参考文献前言为什么要对网络进行压缩和加速呢?最实际的原因在于当前存储条件和硬件的计算速度无法满足复杂网络的需求,当然也许十几年或更远的将来,这些都将不是问题,那么神经网络的压缩和加速是否仍有研究的必要呢?答案是肯定的,我认为对网络压缩和加速的最根本原因在于对高效率模型的追求,当前很多复杂网络中的很多参数是冗余的,对实际模型结果没什么贡献,我们怎么能容忍这些无意义的参数竟然和有意义的参数享受相同的“待遇”——相同的存储空间和计算时间。
2021-03-19 15:03:49 980
转载 机器学习之SVM(支持向量机)
前言之前一直想总结关于支持向量机的相关内容,今天终于让我找到了机会,方便自己和大家翻阅参考。SVM在之前的很长一段时间内是性能最好的分类器,它有严密而优美的数学基础作为支撑。在各种机器学习算法中,它是最不易理解的算法之一,要真正掌握它的原理有一定的难度。在本文中,将带领大家通过一张图来理清SVM的核心推导过程。正文在各种机器学习算法中,SVM是对数学要求较高的一种,一直以来不易被初学者掌握。如果能把握住推导的整体思路,则能降低理解的难度,在本文中将通过一张图来为大家讲述SVM的整个推导过程。SVM
2021-03-18 18:03:39 492
原创 关于KL散度的一些理解
前言在阅读相关文献时,看到了关于交叉熵和相对熵的概念,交叉熵比较熟悉了,一般用在多分类损失的衡量,但是相对熵见得比较少,故查阅了一些资料,以供自己日后复习查阅。正文在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。KL散度可以看作是分布之间的广义距离。先看一下什么是距离:集合 XXX 上的度量(metric,或称为距离函数,或简记为距离)是一个函数 d:X×X→R+d:
2021-03-17 17:01:59 2752 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人